Skip links

Etiske udfordringer ved generativ kunstig intelligens

Denne artikel er skrevet til et digitalt leksikon, om hvad generativ kunstig intelligens er og bruges til og ikke mindst de etiske udfordringer den nye teknologi står overfor

Generativ AI er en avanceret form for kunstig intelligens, der er trænet og udviklet på store mængder af data fra internettet og som ved hjælp af machine learning kan skabe noget nyt. Generativ AI kan modsat machine learning operere uden menneskelig involvering. Der er en del etiske aspekter omkring brugen af generativ AI, men samtidig en tro på, at teknologien kan skabe positive samfundsforandringer samt spare tid og dermed penge, hvis den bruges rigtigt. 

Mens kunstig intelligens har eksisteret i årtier, kom generativ kunstig intelligens (generativ AI) til i 2018 og blev udbredt og verdenskendt med ChatGPT, en tjeneste fra det amerikanske firma OpenAI i 2022. Modsat machine learning, der har været brugt i årevis til mønstergenkendelse og forudsigelser indenfor bl.a. sundhed og industriel produktion – og som kræver menneskelig involvering – kan generativ AI arbejde selvstændigt, når teknologien promptes til at udføre en opgave. En prompt kan være alt fra et kort spørgsmål til en lang detaljeret kommanderende sætning, der forklarer den opgave eller den kontekst, som tjenesten skal løse. 

Generativ AI kaldes også sprogmodeller (LLMs) eller mere populært chatbots, når det gælder tekst- og stemmebaserede tjenester. Det er tjenester som  ChatGPT, CoPilot, Mistral, Claude, Gemini, DeepSeek og Perplexity. De er alle designet på en måde, så man får et svar som var det fra et menneske, når man prompter dem og sætter dem i gang med at arbejde for sig. Nogle kalder dem også personlige assistenter. 

Udover de tekstbaserede generative AI-tjenester er der tjenester, som kan generere musik (f.eks. Udio og Suno), fotos (f.eks. Firefly og Midjourney) og levende billeder (f.eks. Sora) ligesom nogle kan programmere (f.eks. AlphaCode).

Generativ AI kan bruges til mange af de opgaver, som mennesker normalt udfører: 

  • Programmering, fejlrettelser i  computerkode. 
  • Chatbots i kundeservice til at tage sig af simple forespørgsler i stedet for en FAQ. 
  • Diagnostik og forskning – herunder opsummering af lange tunge tekster. 
  • Brainstorm og afprøvning nye idéer inden for musik og kunst.
  • Strukturering af arbejdsopgaver.
  • Hjælp til lektier på alle niveauer i uddannelsessektoren. 
  • Brug som arbejdsmæssig sparringspartner eller som samtalepartner. 

Grundige faktatjek

De første undersøgelser af effektiv brug af generativ AI (f.eks. en norsk undersøgelse af CoPilot) viser, at det især er effektivt at bruge indenfor områder, man i forvejen har et grundigt kendskab til, for så tager det ikke så lang tid at faktatjekke svarene, og så kan man arbejde hurtigere end normalt, når man får hjælp fra en generativ AI tjeneste. Det kan f.eks. være jurister, der får den til at skrive et kort og koncist resume af en tung juridisk tekst. Det kan juristen relativt nemt faktatjekke, fordi juristen selv har den faktuelle viden. Man kan også bruge generativ AI til at sammenskrive tre menneskers notater til handlepunkter. Eller sikre en sproglig ensretning i en ansøgning. Eller om der er noget, man har overset i en ansøgning. Bare for at give nogle eksempler på det, man relativt nemt kan faktatjekke. 

Til gengæld viser undersøgelser også, at hvis man bruger generativ AI indenfor områder, men ikke har kendskab til, kan det nødvendige faktatjek betyde, at man ikke sparer tid ved at bruge den nye teknologi. 

AI Act

Udviklingen af generative AI-tjenester er drevet af især store teknologivirksomheder som OpenAI/Microsoft, Google, Amazon og Meta. Virksomhederne – og investorer – sender milliarder af dollars efter teknologien, fordi de forventer at tjene mange penge på den. Udviklingen er primært styret af mål om profit, fordi der i USA ikke findes lovgivning, som sætter grænser for brugen af AI og dermed beskytter mennesker, demokrati og planeten.  Det har EU til gengæld sørget for med bl.a. GDPR, Digital Services Act og AI Act. F.eks. kræver europæisk lov, at AI-generet indhold skal deklareres, så modtagerne ved, at det er AI-genereret. Teknologien er blevet så god på få år, at det er umuligt at se forskel på ægte og AI-genererede fotos med det menneskelige øje, og ifølge forskere i en Europol-rapport fra 2023 forventes det, at 90% af indholdet på internettet i 2026 vil være AI-genereret. 

En andet krav i AI Act er, at man bliver uddannet, før man gør brug af generativ AI, hvilket kan være svært at nå med den hastighed udviklingen har. AI Act siger også, at hvis man bruger AI indenfor for højrisiko-områder som kritisk infrastruktur, uddannelse, sikkerhed, HR, vigtige offentlige services, retssystem, migration samt væsentlige private og offentlige tjenester, f.eks. kreditvurdering, så skal der bl.a. udarbejdes såkaldte risiko-vurderinger, man skal bruge kvalitetsdata, og alle aktiviteter skal logges. 

Etiske udfordringer

  • Generativ AI beskyldes for ophavsretskrænkelser. Publicistiske medier, forfattere, grafikere, fotografer, skuespillere, filmfolk og andre kreative mener, at AI-tjenesterne er udviklet ved hjælp af deres ophavsretsbeskyttede uden tilladelse. Derfor hober retssagerne sig op. Især i USA, men også danske medier, der arbejder sammen, har truet med retssag. Microsoft, der står bag CoPilot – en version af ChatGPT – mener, at en paragraf om ‘fair use’ i USAs ophavsretslov vil frikende dem.
  • Misinformation. En ting er at generativ AI kan bruges til at skabe og sprede misinformation, hvis man prompter tjenesterne til det. En anden ting er, at de har indbygget misinformaton, ‘hallucinationer’ som det kaldes, idet teknologien gætter sig til næste ord i sætningen. Undersøgelser fra Reuters Insitute og BBC viser, at omkring en femtedel af det, der kommer ud af generative AI-tjenester er hallucinationer. 
  • Teknologien bruges også til at skabe og udbrede deep fakes og dermed misbrug andre mennesker navne, ansigter og stemmer til f.eks. at opnå stemmer ved politiske valg eller lokke penge ud af andre.
  • Der kan være problemer omkring bias og diskrimination på grund af de data, man bruger i en tjeneste.
  • Der er udfordringer omkring teknologiens klimabelastning, idet teknologien øger brugen af el og vand i datacentrene væsentligt. Dog og har kineserne med DeepSeek vist, at man kan gøre det mindre klimabeslastende. 
  • Privacy. Det er uafklaret, om generativ AI er lovligt ifølge EUs privatlivslovgivning GDPR. EUs databeskyttelses-myndigheder har stillet over 30 spørgsmål til OpenAI omkring deres efterlevelse af GDPR. 
  • Endelig er der et etisk spørgsmål relateret til antropomorfisering. De fleste tjenester skriver og taler ikke som om de er maskiner. De er designet til at svare menneskelignende. Og det kan få mennesker til at antropomorfisere, altså få følelser for dem. Der er flere sager, hvor mennesker har forelsket sig i deres chatbots, eller de bruges som AI-terapeuter og venner. Vær især opmærksom på at holde børn og teenagere væk fra såkaldte AI-venner. 

Bliver mennesker dummere?

Teknologivirksomhederne bag generativ AI arbejder imod mål om AGI, Artificial General Intelligens, en form for superintelligens, der skal kunne udføre alt det, mennesker kan udføre af arbejdsmæssige opgaver (kognitive tasks) bare meget hurtigere. Det er usikkert, om de nogensinde opnår AGI, og hvad det helt konkret betyder. Men uanset hvor langt de kommer, kan generativ AI allaerede i dag udføre en del opgaver, som normalt kræver menneskelige intelligens. Og i den forbindelsen begynder nogen at stille spørgsmålet: Gør generativ AI mennesker dovnere og sløvere, fordi vi har en tendens til at springe over, hvor gærdet er lavest og lade maskinerne udføre arbejdet for os? Generativ AI er stadig en umoden teknologi, og der er ikke nok forskningsresultater endnu, som giver klare svar på det spørgsmål. 

Eksterne links:

  • Tracker der lister ophavsretssager mod generative AI tjenester: https://www.mishcon.com/generative-ai-intellectual-property-cases-and-policy-tracker
  • Fordele og ulemper ved CoPilot – norsk undersøgelse https://dataethics.eu/da/copilots-faldgrupper-for-den-offentlige-sektor-en-exit-strategi-er-alfa-og-omega/
  • Europol-rapport, 2022, der forudser at internettet vll være fyldt med AI-genereret indhold i 2026 https://www.europol.europa.eu/cms/sites/default/files/documents/Europol_Innovation_Lab_Facing_Reality_Law_Enforcement_And_The_Challenge_Of_Deepfakes.pdf
  • Reuters Institute Undersøgelse af AI-genereret misinformation om UK valg: https://reutersinstitute.politics.ox.ac.uk/how-generative-ai-chatbots-responded-questions-and-fact-checks-about-2024-uk-general-election
  • BBCs undersøgelse af AI-generet misinformation: https://www.bbc.co.uk/aboutthebbc/documents/bbc-research-into-ai-assistants.pdf
  • Hvordan generativ AI blev misbrugt i det indiske demokratiske valg: https://www.wired.com/story/indian-elections-ai-deepfakes/ 
  • European Data Protection Board stiller spørgsmål i denne rapport ved om ChatGPT efterlever GDPR https://www.edpb.europa.eu/system/files/2024-05/edpb_20240523_report_chatgpt_taskforce_en.pdf 
  • AI kan ramme vores kritiske sans, særlig unge er udsat. Versio3. https://www.version2.dk/artikel/ai-kan-ramme-vores-kritiske-sans-saerligt-unge-er-udsat-viser-studie

Læs også hvad DataEthic.eu’s affiliated scholar group diskuterede omk generative AI, følelsesmæssig afhængihed, ophavsret etc.