Demokratiets inversion er en langsom proces, hvor man gradvist vænner sig til mindre og mindre frihed. I krisetider er der stor risiko for, at man vælger at indføre folkesundhedsteknologi for hurtigt og uden hensyntagen til magtdynamikker. Valget af Google/Apple kontaktsporingsteknologi repræsenterer et sådan valg. Regeringer bør om minimum kræve uafhængigt tredjepartstilsyn
Mange europæiske regeringer er i øjeblikket ved at udvikle kontaktsporingsapps med Google/Apple’s API i kampen mod Covid-19. Selvom de i første omgang forsøgte at udvikle deres egne apps, var flere, primært af tekniske årsager, tvunget til at gøre det på Google-Apple-måden (fx virker bluetooth ikke på iPhones, når telefonen er i dvale), og på grund af forskellige magtkampe, som for nylig beskrevet i Politico. Dermed flyttede samtalen sig fra statslig overvågning til tech-giganterne.
Ideen om at smitten kunne spores og inddæmmes med en app, havde i begyndelsen af 2020, da pandemien brød ud i Europa medført, at mange europæiske lande forsøgte at udvikle sådanne apps. Mange præsenterede centraliserede løsninger, der gav mulighed for at indsamle flere data, opbevare disse og benytte dem til fx videnskabelige formål. Det kan derfor argumenteres, at den løsning, som Google/Apple nu har tilbudt, vil beskytte borgere mod potentiel ufrivillig statslig overvågning, fordi den er decentraliseret – baseret på behandling på enheden, hvilket også er mindre risikabelt, når det drejer sig om beskyttelse mod misbrug af data.
Derfor har mange støttet implementeringen af Google/Apple-løsningen. Af ovennævnte grunde giver dette også mening i forhold til privatlivets fred, men det er samtidigt uforståeligt, at vores store bekymring for og kritik af ’black box’ big data teknologi, overvågningskapitalisme og datamonopoler ikke er til stede i denne debat. Der er stadig mange ubesvarede kritiske spørgsmål, som vi skal have med i denne debat: Apple og Google siger, at de ønsker at beskytte brugerne mod statslig overvågning. De siger, at de ikke får adgang til de sundhedsdata, der bruges til at spore personer, der har været i kontakt med en Covid-19 patient. Men hvordan kan vi vide, at de ikke får adgang, og hvilke andre data har de, der kan bruges til kontaktsporing? Og det vigtigste spørgsmål: Bør et duopol af magtfulde big data virksomheder have mulighed for at påtvinge demokratiske europæiske regeringer nøglekomponenter i en offentlig teknisk infrastruktur for folkesundheden?
Uden en ordentlig dataetisk og social konsekvensanalyse af de teknologier, der nu implementeres, som ikke kun fokuserer på databeskyttelse og privatlivsteknologi, er konsekvenserne alvorlige. Demokratiets inversion er en langsom proces, hvor man gradvist vænner sig til mindre og mindre frihed, og hvor man accepterer forskellige magtaktører samt deres forskellige interesser – økonomiske, videnskabelige, kulturelle og sociale. I krisetider er der stor risiko for, at vi vælger at indføre folkesundhedsteknologi for hurtigt, hvilket også betyder, at vi accepterer mere generelle strukturelle magtspørgsmål.
I Kina, hvor de første kontaktsporingsapps blev indført, er risiciene for indskrænkelse af frihed mere synlige. Og måske var det også de første erfaringer, vi havde, med kontaktsporingsapps med uigennemsigtige algoritmer og datakilder samt centraliserede statslige servere og tvungen massesporing og overvågning, der er grunden til, at den vestlige halvkugle meget hurtigt afviste en type teknologidesign fremfor en anden. Men selvom de designmæssige valg vi træffer, ser ud til at være både moralske og sikkerhedsmæssigt i orden, repræsenterer de ofte større og mere komplekse magtproblemstillinger.
Dataetik og magt
Den politiske teoretiker Langdon Winner skrev i 1980: “Det afgørende er ikke selve teknologien, men det sociale eller økonomiske system, hvori det er indlejret.” Hvad han mente var, at en teknologi aldrig er neutral. Den repræsenterer politiske og etiske valg. Og det er præcis derfor, at der er behov for dataetik som et yderligere perspektiv på teknologier indført under Covid19-pandemien. Når vi kigger på alt fra AI triage og behandlingsvalg på overbelastede hospitaler til kontaktsporing og ansigtsgenkendelse af mennesker med masker, kan vi med en dataetisk analyse gå et skridt videre end kun at kigge på deres privatlivsteknologidesign og overholdelse af databeskyttelseslovgivning. Med dataetik evaluerer vi ikke kun den rolle, som selve datateknologiernes design spiller, vi evaluerer også deres rolle i samfundet og den magtdynamik, de styrker og skaber, herunder de økonomiske, kulturelle og politiske interesser, der former deres design, styring og implementering i samfundet.
Dette er vigtige overvejelser at gøre sig, når man farer vild i de tekniske detaljer i kontaktsporingsapps. Vi kan kigge på valget mellem to forskellige typer databeskyttelse og teknologi design af privatlivets fred, såsom den der er designet af staten (en demokratisk regering vil altid hævde, at deres design også repræsenterer et design som sådan, selv om deres løsning er baseret på centraliseret lagring af data) eller den, der er designet af en Big data teknologivirksomhed som ikke blot et valg mellem to tekniske løsninger til potentiel teknologimasseovervågning. Men som et valg, der repræsenterer magtforhandlinger i samfundet generelt samt kompromiser mellem forskellige interesser. Det repræsenterer og anerkender, hvem der er ved magten, hvem der bestemmer, hvem der er ansvarlig, hvor meget indsigt vi får nu og i fremtiden. Det repræsenterer demokratiets form.
Så bortset fra et rent teknisk valg, hvilke politiske valg træffer vi, når vi vælger Google/Apple-løsningen? Regeringer i Europa sidder fast i big tech industriens favntag. De skal anvende en privat mobilinfrastruktur til en folkesundhedskrise. Store teknologivirksomheder har magt til at bestemme, hvad de kan og ikke kan for at nå deres borgere.
Denne situation giver også Google – og Apple, skønt de har en langt bedre historik i forhold til beskyttelse af privatlivets fred – en fantastisk chance for at positionere sig som en privatlivsfokuseret virksomhed. Den selvsamme virksomhed, der opfandt den “gratis” model, hvor folk betaler med deres data i stedet for penge og er mikro-målrettet og manipulerende både økonomisk og politisk. Dette er, hvad Helen Nissenbaum, professor i informationsvidenskab ved Cornell University i Washington Post, for nylig kaldte et “flamboyant røgslør”. Hun siger, det er ironisk, at de to virksomheder, der i årevis har tolereret masseindsamling af folks data, nu vil forhindre brug heraf til et formål, der er “afgørende for folkesundheden.” Og vi er enige med hende i, at: “Hvis det er mellem Google og Apple, der har de data, ville jeg langt foretrække, at min læge og de offentlige sundhedsmyndigheder har data om min sundhedstilstand … I det mindste er de begrænset af loven.”
Vi bør som minimum kræve ægte gennemsigtighed. Google og Apple har adgang til en masse data, herunder vores lokationsdata, men de hævder, at de ikke har adgang til følsomme folkesundhedsdata. Hvis vi tvinges til at bruge deres API – hvilket vi allerede bliver, da de har magten over den mobile infrastruktur – må regeringer som minimum kræve uafhængigt tredjepartstilsyn.
Ideelt set bør disse tredjeparter være uafhængige offentlige organer, ligesom inden for andre sektorer, såsom økologisk eller bæredygtigt træ, appelsiner, kaffe eller fisk. Tredjeparterne kan være databeskyttelsesmyndighederne, databeskyttelsesagenturerne i de enkelte europæiske lande eller Det Europæiske Databeskyttelsesråd. Men har de ressourcerne? Indtil videre har vi haft tillid til Apple, når de påstår, at de udfører databehandling på vores devices og anoymiserer data. Men ville det ikke være mere optimalt med en uafhængig kontrol – eller endda en certificering af beskyttelsen af privatlivets fred – der kunne bevise, at de gør det rigtigt.
Intet teknisk fix
I det hele taget burde vi ikke bedes om at vælge mellem “to onder” – hverken statslig overvågning eller big tech overvågning (eller for at bruge Zuboff-udtrykket; “overvågningskapitalisme”, nu hvor vi taler om de mere generelle samfundsmæssige magtdynamikker). Vi bør træffe valg, der er udelukkende baseret på vores demokratiske værdier. Magthaverne har en tendens til at forenkle vores valg ved kraftig forenkling af falske kompromiser: “Vælg denne tekniske løsning eller underkast dig total overvågning”. Men faktum er, at ingen teknologi er en tryllestav, ingen teknologi er vores sidste udvej, og derfor behøver vi ikke at acceptere kompromiser uden at sætte spørgsmålstegn ved dem eller overveje alternativer (fx hvad med fysiske apparater, der ikke er forbundet med vores mest private enheder, staten eller big data-teknologi infrastruktur som EIT ser på?)
Det er også værd at tænke over, at der altid er en menneskelig side af en teknologisk opfindelse, som fx en kontaktsporingsapp, og at det ofte er her de centrale dataetiske implikationer kan spores. Fx er det et alvorligt problem, når en kontaktsporingsapp bliver en teknologisk barriere for livreddende information til borgerne eller afgørende menneskelig kvalitativ analyse af smittesituationer; når en app bliver påbudt og den begrænser vores bevægelsesfrihed – socialt (hvis det bliver normalen at kræve at se andres appstatus) eller håndhævet af myndighederne (som det er tilfældet i Kina); når apps skaber panik på grund af falske positive resultater eller det modsatte. Denne “menneskelige side” af kontaktsporingsapps fylder også i stigende grad i den offentlige debat i Europa. Blandt andet bliver den britiske kontaktsporingsapp forsinket og præsenteres i høj grad som et supplement til menneskelige kontaktsporstoffer, og ikke som en erstatning, som Michael Veale skriver her.
Sidst men ikke mindst. Er det virkelig det værd? Flere eksperter har udtrykt, at det er tvivlsomt, om kontaktsporingsapps overhovedet vil virke. Som sikkerhedsekspert Bruce Schneier for nyligt påpegede, har de sandsynligvis “absolut ingen værdi” på grund af deres potentiale for at skabe falske positiver og falske negativer, der i sidste ende vil skabe mistillid og kaos ved brug. (Eller som demonstreret i denne video, at kontaktsporingsapps har absolut ingen chance for at virke).
Hvis der er tvivl om, hvorvidt dette vil virke, skal vi måske overveje slet ikke at gøre det. Og når 60% af befolkningen skal downloade den for at opnå en effekt, er det måske spild af tid. Island, der formåede at sætte rekord med tæt på 40% downloadede, siger, at det ikke medførte radikale forbedringer. Overhovedet ikke.
Læs også Naomi Klein in Information: Sådan planlægger techindustrien at profitere på pandemien