Menneskelivet er noget rodet og uforudsigeligt noget. Det er helt sikkert ikke fejlfrit, ofte er det uretfærdigt, moralsk forkasteligt og værd at være etisk bekymret over. Men kunstigt intelligente data systemer kan ikke ændre på det. Kun mennesker har de etiske kritiske evner, der skal til. Hvorfor vi har brug for en menneskelig tilgang til data og kunstig intelligens.
Denne kronik blev bragt første gang i Berlingske Tidende 20. januar 2022
“Akademiker. Filosof. Nobel prisvinder. Jøde.” Sådan registrerer den verdensberømte filosof Henri Bergson sine data på en politistation i Paris i 1940. Efter den tyske besættelse af Frankrig samme år er nye antisemitiske love blevet indført, og de kræver, at personer af jødisk afstamning registreres hos politiet. Så filosoffen med jødisk oprindelse rejser sig fra sin sygeseng og går på politistationen for at registrere sine data. Han dør af sin sygdom nogle måneder senere. Men mange andre af de mennesker, der bliver registreret ligesom ham, mister livet i koncentrationslejre og på andre grusomme måder i løbet af de kommende år.
Firs år senere i 2020 i en helt anden del af verden bliver manden Robert Williams anholdt af politiet foran sit hus. Da han dagen efter bliver præsenteret for et grynet overvågningsbillede af den mand, der har begået tyveriet, han er blevet anholdt for, er det tydeligt, at det ikke er ham på billedet. Manden er bare sort ligesom Robert Williams. Politiet har gjort brug af et ansigtsgenkendelsessystem, som har lavet et fejlagtigt match mellem hans billede og et af en anden sort mand. Det er en af den slags kunstigt intelligente datasystemer, der på det tidspunkt allerede har været brugt af politiet i USA i to årtier, og faktisk har det vist sig flere gange før, at den type systemer reproducerer racefordomme. Derfor er Robert Williams første reaktion derfor også at sige til politibetjentene: “Jeg håber ikke, at I tror alle sorte mænd ligner hinanden?”
Vi har altid haft magtfulde datasystemer og registre gennem historien. Men omdannelsen af alting til data kombineret med nye kunstigt intelligente analyser kræver i dag en helt bestemt form for etisk refleksion og bevidsthed. Her i 2022 er vi nemlig ikke bare udfordret af et dominerende magtregimes databaser og registre. Vi er nedsænket i magtfulde datasystemer som i stigende grad er sammenflettet med vores menneskelige beslutningstagning på alle områder af vores liv med ofte store etiske konsekvenser.
Forstærket computerkraft og den enorme mængde data, som den digitale del af vores liv og samfund generer, har nemlig gjort det, som man kalder ”maskinlæringsteknologier” i stand til f.eks. at udvikle sig og lære at genkende ansigter i billeder (“ansigtsgenkendelse”), at genkende tale fra lyd (“stemmegenkendelse”), at køre en bil (ved gengivelse af objekter i omgivelser og udføre af en risikovurdering), og til at forstå enkeltpersoner, når information og markedsføring skal målrettes direkte (det som også kaldes “profilering” og “personalisering”).
Forestil dig så her en kunstigt intelligent robot, der gennemgår billeder af overvejende hvide ansigter og beslutter, hvad menneskelig “skønhed” er. Tænk på en online søgetjeneste, der lærer at genkende ord som “barnepige” og “receptionist” som kvinde-ord og ord som “arkitekt” og ”direktør” som mande-ord. Et juridisk software, der markerer mennesker som højrisici eller lavrisici baseret på deres hudfarve eller hvor de er opvokset, eller et autonomt våben, der analyser data på mennesker, bygninger og kulturelle steder for at beslutte, hvad der er tilladeligt at bombe, og hvad der ikke er.
Det er klart, at vi i dag har behov for at synliggøre de kunstigt ”intelligente” datasystemers magt og etiske problemstillinger! Lige nu fremlægger regeringer og mellemstatslige organisationer derfor også verden over – fra USA til Japan og i EU, OECD og UNESCO – etiske principper for udviklingen af kunstig intelligens med det som kaldes en “menneske-centrisk” fælles tilgang. Men i det politiske kapløb mod globalt herredømme over kunstigt intelligente teknologier, som der samtidig finder sted, er det usikkert, om der er nogen, der virkeligt ved eller værdsætter, hvad en ”menneske-centrisk” tilgang indebærer.
Det betyder nemlig ikke bare, at vi skal udvikle flere og mere magtfulde kunstigt intelligente data-teknologier og systemer, der kan tage de svære beslutninger for os mennesker. En menneske-centrisk tilgang handler derimod om, at menneskers handlekraft, ansvar, kritik og erfaring skal prioriteres i udviklingen og implementeringen af denne type nye teknologier. I design, lovgivning, uddannelse, forskning og innovation.
Henri Bergson, der registrerede sine data i et magtfuldt datasystem i 1940, var fortaler for en menneskelig tilgang. I hans allersidste bog (Les Deux Sources de la morale et de la religion) taler han for eksempel om to former for morale: en ”social morale” og en ”menneskelig morale”. Den sociale morale er den, vi bare efterlever, fordi vi har fået at vide, at vi skal. Den kan skrives ned, reproduceres i systemer, men den kan også nemt udfordres og sættes til side, som Bergson selv så og oplevede det, i en krisetid, som f.eks. under krig (eller under en pandemi!), når et regimes magt dominerer. Den anden, ”menneskelige morale”, er en form for morale, som vi ”lever”, som er en del af vores kultur og vores måde at være på. Den har ingen grænser, er ikke skabt ud fra en bestemt interesse, anden end menneskets og planetens som sådan. Den er inklusiv.
Bergsons filosofi om den menneskelige morale er så uendelig vigtig i dag, hvor vi i stigende grad uddelegerer vores liv, væren og særligt etiske beslutninger i datasystemer og dermed erstatter en menneskelig levende etik med en maskines programmerede moralske handlinger. Men mennesket Robert Williams er mindst lige så vigtig, for han synliggjorde en helt bestemt form for data magt. På et splitsekund blev hele hans komplekse menneskelige væsen nemlig reduceret til nogle få sammensatte datapunkter, og han blev nedsænket i et digitalt magt-kompleks, da han blev arresteret af politibetjente, der blindt fulgte et kunstigt intelligent systems fejlagtige konklusioner.
Vi mennesker har altid gennem historien truffet beslutninger med etiske konsekvenser, vi bevæger os rundt i forskellige former for magtdynamikker, og gang på gang indser vi selv, eller får vi at vide af andre mennesker, at vi har truffet dem dårligt eller på etisk problematiske måder. Det er denne menneskelige selvbevidste kritik, som et datasystem ikke har, der er hele grunden til, at vi er nødt til at blive ved med at træffe disse beslutninger selv. For kun vi selv er i stand til at adressere magten i datasystemerne.
Tænk på en etisk vurdering af den mest kritiske situation, du kan forestille dig, som beslutningen om et menneskes frihed omdannet til en dataproces uden en kritisk menneskelig vurdering. Det er skræmmende. Ikke desto mindre er det netop den slags forestillinger omkring reduktion af kompleksitet og menneskelige dilemmaer, der driver meget af udviklingen af vores big data og kunstigt intelligente infrastrukturer i dag. Men i vores iver over de nye intelligente teknologier, skal vi passe på, at vi ikke mister den menneskelig kritisk handlekraft i vores hverdag og samfund. Den kritiske etiske menneskelige handleevne, som er grundlæggende for vores demokratiske samfund og deres institutioner, og som er bygget på meget fine magtbalancer. Derfor har vi stadig brug for en menneskelig tilgang til data systemer og kunstig intelligens.