Skip links

Generativ AI er mental outsourcing og svækker kritiske og analytiske kompetencer

Teknologiforståelse er vigtig for demokratisk dannelse, men vi må ikke kaste den ofte besværlige langsommelige analytiske tænkning ud med badevandet i omfavnelsen af techindustriens nyeste hurtige produkter

Tech og Trivsel v/ Jesper Balslev, Nicola Nyhave, Jan Trzaskowski og Mie Oehlenschläger

Selvstændig analytisk tænkning og sociale kompetencer er grundfærdigheder i et demokratisk samfund – og de skal trænes og opretholdes. Det bliver overset i fascinationen af nye typer kunstig intelligens, Generativ AI (GenAI), der vil svække både vores kognitive og sociale muskler, hvis vi udliciterer vores kritiske tænkning til dem. 

Vi skal træne vores hjerner. Hele livet. Så når vi udliciterer basal tankeaktivitet til maskinerne, svækker vi en række færdigheder. Holder vi f.eks. op med at bruge vores hukommelse og egne tænkeværktøjer, vil det nødvendigvis svække vores analytiske og kritiske sans. Løfterne lyder, at det frigiver mentale ressourcer, men ofte sker det modsatte: Vi mister evnen til kritisk at vurdere både menneske- og maskinskabte tekster.

Denne dobbelte bevægelse af manglende kognitiv træning og en foretrukken tro på maskiners outcome kan skabe fejl, som man ikke selv har videnskapacitet til at se, endsige reparere. Der findes masser af eksempler på forskere, der ufrivilligt har skrevet AI-opdigtede referencer ind i deres forskningsartikler eller jurister, der henviser til sager, der ikke eksisterer eller læger, der træffer beslutninger på baggrund af fejlbehæftet data.

I en række nyligt publicerede forskningsartikler påvises der således stærke sammenhænge mellem overdreven brug af generativ kunstig intelligens, GenAI, og svækket kritisk sans. GenAI kender læseren sikkert også som ChatGPT (fra firmaet openAI), Co-pilot (fra Microsoft), Apple Intelligence (Apple) eller Gemini (fra Google). Deltagere i undersøgelser, der rapporterer at de bruger GenAI meget, klarer sig gennemsnitligt dårligere i tests, der måler på kritisk sans. Det er tests, der handler om at forstå logiske forbindelser mellem ideer, at vurdere argumenter og til at finde uoverensstemmelser i ræsonnementer. Det er typisk de yngre generationer, der bruger virtuelle influencere meget, som altså rammes af en svækket kritisk sans.

I andre undersøgelser rapporterer videnarbejdere, der bruger GenAI meget, at de har en tendens til at overvurdere kvaliteten af deres arbejde – smittet af ChatGPTs selvsikre tone (selv når den tager fejl). Andre undersøgelser viser, at det, som man sparer i tid ved at bruge generativ AI, ofte skal betales i form af fejlfinding.

Brug af AI kan betragtes som mental outsourcing, der reducerer vores kognitive kapaciteter

Ligesom det har været tilfældet med de seneste årtiers outsourcing af produktion, må vi forvente, at kreativiteten og innovationen følger med, når tænkningen uddelegeres. Vi kan blive afhængige af de maskiner, der hjælper os med at “tænke” og føle noget bestemt.

If you don’t use it – you loose it

Kritisk tænkning skal læres, trænes – og holdes ved lige. I World Economic Forums The Future of Job’s report fra 2025 identificerer man analytisk tænkning som den mest efterspurgte kernefærdighed blandt arbejdsgivere, hvor syv ud af 10 virksomheder betragter det som essentielt i 2025. Dette efterfølges af robusthed, fleksibilitet og smidighed sammen med lederskab og social indflydelse.

Disse egenskaber er menneskelige egenskaber, som kræver menneskelig træning, og derfor har vi en vigtig samfundsmæssig opgave i ikke at outsource disse dele af mennesket til maskinen – selv hvis det reelt skabte mere effektivitet på den korte bane. Ligesom beherskelse af sociale medier heller ikke er den vigtigste færdighed for at indgå i sociale relationer.

Det kræver mere end blot kritisk tænkning – det kræver modstandskraft og vedholdenhed, og det er nødvendigt, at skolen udvikler en pædagogik, der i endnu højere grad støtter selvstændig tænkning og giver mulighed for, at elever producerer deres egen viden og tekster – med så få hjælpemidler som muligt. Vi må ikke give yngre generationer indtryk af, at AI-beherskelse er kernen i uddannelse og fremtidig succes. Eller at de kan hoppe over hvor gærdet er lavest eller friktionen lavest af den årsag at ”fremtiden alligevel er digital”. De skal også kunne selv.

Den sociale dimension

Ligesom svækkelsen af vores ”kognitive muskulatur” har konsekvenser for vores evne til kritisk tænkning, kan man argumentere for, at svækkelsen af vores ”relationelle muskulatur” allerede har og i fremtiden vil få konsekvenser for vores evne til at indgå i gensidigt forpligtende relationer med andre mennesker eller opretholde og fungere i et demokrati. Det har ikke kun store negative konsekvenser for vores sundhed og trivsel men også for vores evne til kritisk at tackle de sociale dimensioner af eksistensen.

At vi også på det sociale felt, er ved at udlicitere vigtige menneskelige funktioner, er virtuelle ”venner” et eksempel på. Det mødte stor modstand i bl.a. Danmark, da Snapchat i 2023 introducerede My AI, en virtuel ”ven” som dit barn kan chatte med. Alligevel er GAI som selskab, ”ven” eller endda ”kæreste” i vækst. Character.ai har for eksempel angiveligt fået 20 millioner aktive månedlige brugere, der interagerer med 18 millioner unikke chatbots, siden det blev grundlagt i 2021. I markedsføringen møder vi løfter om, at du her får en ledsager, som bekymrer sig om dig, altid er på din side og altid er klar til at lytte og tale. Det er besnærende løfter i en verden, hvor nærvær, opmærksomhed og forpligtende relationer er blevet en mangelvare.

Mennesker er født med evnen til at tilskrive menneskelige træk, følelser og hensigter til noget, der ikke er et menneske. Det betyder, at vi nemt danner relationer og knytter os til ting eller andre levende væsener, som har en menneskelignende adfærd, kan kommunikere, give udtryk for følelser eller se menneskelig ud. Vi forveksler nemt noget ikke-menneskeligt med noget menneskeligt, hvis bare det ligner lidt.

Chatbots bliver konstant bedre og bedre til at simulere en menneskelig samtale, så den flyder naturligt, og indholdet virker relevant og interessant. Derudover kan man i højere og højere grad generere billeder og videoer, der ligner rigtige mennesker – uden at være det. Der er således forståeligt at vi knytter os til GenAI.

Børns socialitet skal trænes

Om My AI skriver Snapchat selv, at dens svar kan indeholde forudindtaget, ukorrekt, skadeligt eller vildledende indhold, og at man ikke skal dele fortrolige eller følsomme oplysninger med den. Det fritager muligvis Snapchat for ansvar juridisk – men forhindrer altså ikke mennesker i reelt at betale med privatliv, opmærksomhed og selvbestemmelse.

Det gælder især børn og unge, som er ret ukritiske forbrugere af det, internettet tilbyder. Vi har allerede set eksempler på GenAI, som støtter børn og unge i selvskadende adfærd, vold eller selvmord – med tragiske konsekvenser til følge. Eftersom man ikke kan retsforfølge en GenAI, er ansvaret for det aktuelt svært at placere.

Måske er det endda slet ikke den største udfordring, vi får, ved at lukke GenAI ind i vores følelsesliv. Den amerikanske socialpsykolog Jonathan Haidt har sammen med andre fagpersoner knyttet tabet af børns risikofyldte leg til den betydelige stigning i angst blandt børn og unge. Når vi fjerner det, der er lidt farligt fra børn og unges liv, kan vi risikere, at de bliver bange for alt det, som ikke rigtigt er det. Mennesker udvikler robusthed, nye kompetencer og livsduelighed, når vi møder og overkommer tilpasse udfordringer. Tilpasse udfordringer er dem, som kan mærkes – uden at de vælter os omkuld.

På det følelsesmæssige og relationelle område, handler det således om at lære at håndtere svære følelser og en vis mængde ubehag – gennem udviklende erfaringer. Derfor er usikkerhed, fejlafstemninger og friktion i relationer i tilpasse mængder en udviklingsmulighed. Noget der giver os modet til at tage relationelle chancer og klæder os på til at få opfyldt vores relationelle behov i en verden med andre mennesker. Ligesom børn og unge har behov for risikofyldt leg, så har de altså også behov for et risikofyldt følelsesliv.

Mennesker udvikler sig i menneskelige relationer i den rodede proces, hvor vi ikke helt får mødt hinanden rigtigt, men hvor vi vender tilbage og får repareret relationen.

Det sker utallige gange dagligt igennem mødet mellem mennesker, hvor vi justerer på kropssprog, mimik, toneleje og vores ord, når vi mere eller mindre bevidst fornemmer, at vi ramte lidt skævt i samspil og kommunikation.

Men med GenAI bliver vi lovet et bekvemt og risikoløst følelsesliv. Men det, der er brug for, er at have mod til at tage relationelle chancer og danne relationer med rigtige fejlbarlige mennesker i den virkelige verden.

Kritisk tænkning og sociale kompetencer er afgørende for et sundt demokrati

En veluddannet og rimeligt engageret offentlighed er vigtig for den demokratiske debat, som er afgørende for liberale demokratier. Det forudsætter kritisk tænkning og sociale kompetencer. Teknologi, der lover et friktionsløst liv, kan reducere vores menneskelighed og de færdigheder, der er vigtige for mennesker, både som borgere, forbrugere og arbejdstagere. Den virkelige fare ved GenAI er, at vi begynder at nøjes med middelmådighed og kritisk reducerer kreativ og social tænkning til en imitation af, hvad andre tidligere har lavet eller følt.

Photo: Unsplash.com

  • Jesper Balslev er Ph.d. Docent ved Københavns Erhvervsakademi.
  • Nicola Nyhave er Cand. psych. aut. og specialist i klinisk psykologi/børne- og ungdomspsykologi
  • Jan Trzaskowski er jura professor med fokus på marketing, teknologi, privatliv og psykologi
  • Mie Oehlenschläger er selvstændig rådgiver i etik, tech og politik, medlem af Etisk Råd, bestyrelsesmedlem i 5Rights (børns digitale velfærd) og fast skribent på DataEthics.eu

Referencer

Gen AI for Coding Research Report | Uplevel Data Labs. (n.d.). Retrieved

11 April 2025, from https://resources.uplevelteam.com/gen-ai-for-coding

Gerlich, M. (2025). AI Tools in Society: Impacts on

Cognitive Offloading and the Future of Critical Thinking. Societies, 15(1),

6. https://doi.org/10.3390/soc15010006

Larson, B. Z., Moser, C., Caza, A., Muehlfeld, K.,& Colombo, L. A. (2024). Critical Thinking in the Age of Generative AI. Academy of Management Learning & Education, 23(3), 373–378. https://doi.org/10.5465/amle.2024.0338

Negri-Ribalta, C., Geraud-Stewart, R., Sergeeva, A., & Lenzini, G. (2024). A systematic literature review on the impact of AI models on the security of code generation. Frontiers in Big Data, 7,

1386720. https://doi.org/10.3389/fdata.2024.1386720

Lee, Hao-Ping, Advait Sarkar, Sean Rintel, Richard Banks, Nicholas Wilson, Ian Drosos, and Lev Tankelevitch. “The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers.” Yokohama, Japan: ACM, 2025. https://doi.org/10.1145/3706598.3713778.

Stadler, Matthias, Maria Bannert, and Michael Sailer. “Cognitive Ease at a Cost: LLMs Reduce Mental Effort but Compromise Depth in Student Scientific Inquiry.” Computers in Human Behavior 160 (November 1, 2024): 108386. https://doi.org/10.1016/j.chb.2024.108386.

Zhai, C., Wibowo, S., & Li, L. D. (2024). The effects of over-reliance on AI dialogue systems on students’ cognitive abilities: A systematic review. Smart Learning Environments, 11(1),

28. https://doi.org/10.1186/s40561-024-00316-

Stadler, Matthias, Maria Bannert, and Michael Sailer. “Cognitive Ease at a Cost: LLMs Reduce Mental Effort but Compromise Depth in Student Scientific Inquiry.” Computers in Human Behavior 160 (November 1, 2024): 108386. https://doi.org/10.1016/j.chb.2024.108386.

Haidt, J. (2025). The Anxious Generation. Penguin

Tronick, E. & Gold, C. M. (2020). The Power of Discord: Why the Ups and Downs of Relationships are the Secret to Building Intimacy, Resilience, and Trust. Scribe Publications