Forudsigelser med persondata bør stoppe før individet

Analyse. Data om personer kan være med til at udvikle samfundet. Vi bruger data til at forudsige mønstre og håndtere risici – til at skabe nye vacciner, effektiv adgang til information, nye og renere teknologier. Men som det generelt er med forudsigelser, skal vi være meget varsomme med dem. Især når det drejer sig om at forudsige et menneskes udvikling og fremtidige beslutninger. Der er stor forskel på at bruge data til at forudsige mønstre på en gruppe af mennesker, og så det, man kalder individuel prædiktion. I USA eksperimenteres der med det, men det går rigtig skidt og alt peger på, at det øger uligheden.

Når politiet bruger dataanalyse til at forudsige, hvor der er størst sandsynlighed for uro i København og omegn på lørdag, så kan det gøres dataetisk. I hvert fald hvis det kun drejer sig om finde mønstre i områder baseret på fuldt ud anonymiserede data. Ikke om at finde ud af hvem blandt individer, der vil lave ballade på lørdag.

Hvis Socialministeriet bruger data til at finde ud af, hvad det er for typiske hændelser, der gør, at nogle danskere ender på offentlig forsørgelse, kan det være dataetisk forsvarligt, hvis det udelukkende drejer sig om grupper af danskere, og ikke om hvilke konkrete identificerbare personer, der er i risiko for at komme på offentlig forsørgelse.

Hvis Erhvervsstyrelsens ideer om at bremse mistænkelige personer allerede når en virksomhed registreres bliver til virkelighed, så kan det formentlig ske dataetisk ansvarligt. Det kan være tilfældet, hvis Erhvervsstyrelsen bruger individets skatteoplysninger og offentligt tilgængelige økonomiske data sammenholdt med eksempelvis oplysninger om økonomisk kriminalitet og skattesvig. Med andre ord; er der en objektiv begrundet mistanke, så kan der være et friere rum til brug af persondata og automatiserede algoritmer – også på individ niveau.

Vi lever i en tidsalder, hvor data er og bliver stadig mere værdifuldt – både økonomisk og menneskeligt. Der er masser af gode måder at bruge data konstruktivt til at øge kvalitet, service og velfærd, men så snart persondata involveres, skal vi træde varsomt. Persondata er ligesom andre data uvurderlige at bruge til at udvikle vores samfund og forretninger på, men der bør være klare grænser for, hvor langt vi vil gå i forhold til at skabe indsigt i borgere og forbrugeres privatliv og forhindre dem i selv at bestemme, hvordan de vil agere.

EU’s persondataforordning, GDPR, har sat nye klare retningslinjer for brug af personlige oplysninger, hvor sigtet er beskyttelsen af borgeren og forbrugeren. GDPR understreger således, at den enkelte har ret til kontrol med sine persondata. Et andet grundlæggende princip i forordningen er minimering af risikoen for det enkelte menneske ved den persondatabehandling, som finder sted. Er der fx knyttet en risiko for diskrimination eller identitetstyveri til persondatabehandlingen. Det er helt afgørende standarder for privatlivs- og persondatabeskyttelse i en digital tidsalder, som den danske regering desværre modarbejder på en række fundamentale områder.

Men én ting er hvad der er lovligt rigtigt eller forkert. En anden ting er, hvor langt vil vi egentlig gå, også selv om det er lovligt.

Er det virkelig sådan, at målet til enhver tid helliger midlet, at samfundet eller virksomhedens interesse i effektivisering og optimering per automatik har prioritet fremfor borgeren og forbrugerens interesse – uanset at man tilsidesætter demokratiske grundprincipper og dataetiske værdier?

Tendensen til blindt at tro på, at kvantitative dataforudsigelser kan løse alle samfundets problemer og derfor også trumfer alt er en problematisk udvikling. Til, eksempel kan nævnes sagen fra Gladsaxe Kommune, der har testet brugen af data til at forudsige sociale problemer i børnefamilier helt ned på individniveau.

For udvikler vi et system bygget på forudsigelser på individniveau er vejen meget kort til kontrolsamfund, hvor man f.eks. kan blive arresteret på baggrund af sine mulige ulovlige handlinger i fremtiden som i filmen Minority Report. Bare for en sikkerheds skyld.
Det lyder som science fiction. Men det er det ikke. Udviklingen er godt i gang andre steder i verden.

Individuel data prædiktion

I USA bruges individuel data prædiktion af private virksomheder til at forudse, hvilke kunder der bliver gravide – også før deres kunder selv ved det (Target-sagen fra 2012 beskrevet først af New York Times How Companies Learn Your Secrets).

Den amerikanske stat bruger persondata til at forudsige, hvor stor risikoen er for, at en indsat, der skal prøveløslades, begår kriminalitet indenfor de 12 måneder efter løsladelsen. Og politiet i Chicago kører en algoritme, der udvikler en heat liste over individer, der muligvis ender som kriminelle. Politiet hævder, at det sænker kriminaliteten uden at have tilstrækkelig dokumentation.

Før vi kaster os ud i lignende aktiviteter her i Danmark, må vi som samfund stille os selv to grundlæggende spørgsmål:
Er de data, som algoritmen baserer sig på, sande, neutrale, opdaterede og relevante?
Og lige så vigtigt: Er det sådan et forudsigelsessamfund, vi ønsker at opbygge?

Den amerikanske forskningsinstitution Data Society har for nylig udgivet foredrag og promoveret ny forskning af Virginia Eubanks. I hendes bog ‘Automating Inequality’ beskriver hun flere eksempler på, hvordan profilering og prædiktion straffer de svageste og fattigste.

Den viden, som amerikanerne allerede har fremlagt, bør danske politikere sætte sig grundigt ind i, allerede FØR de bliver forført af digitaliseringens muligheder. Og det må aldrig overlades til embedsfolk at træffe så grundlæggende beslutninger som prædiktion er.

Tendensen synes desværre at gå i den modsatte retning. Vi har set Horsens Kommune, der på en Etisk Råds konference i efteråret 2017 luftede vilde ideer om, hvordan projekt Tværspor kunne udvikle sig til, at man kunne bruge data til at forudse, hvem der ville ende på kontanthjælp og dagpenge. Hvor er den demokratiske kontrol af så vidtgående brug af persondata, herunder de dataetiske og demokratiske overvejelser, som et sådan embedsmandsudtænkt forslag skal udløse?

Det absolut sværeste ved data prædiktion er, at vi taler om sandsynlighedsberegning, som uanset supercomputere og regnekraft er alt for usikkert et grundlag til at sætte menneskelige skæbner på spil. Det er samtidig uansvarligt at basere nutidens reaktioner og sanktioner på, hvad der muligvis kan ske i fremtiden. Vi bør som samfund sætte grænser for forudsigelser på grundlag af individers persondata indsamlet til helt andre formål. Det er kan være orden, når de er baseret på mønstre, og når der er fuld gennemsigtighed omkring behandlingen. Det kan også være i orden, hvis der er uafhængig dokumentation for at persondata vitterligt er anonymiseret. Og det kan være i orden, når det gælder data om vejr, trafik, produkt- og logistikdata, som ikke indeholder persondata.

Endelig skal man gøre sig klart, at dataetisk ansvarlig brug af persondata til forudsigelser koster penge, som Dana Boyd, stifter af Data Society har peget på. Det koster at implementere, vedligeholde, auditere og designe til at servicere mennesker. Og det koster at uddanne brugerne af systemerne, så det sker dataetisk ansvarligt. Men det er en pris, som et demokrati skal være villig til at betale, især et så værdibaseret og beskyttende samfund som det danske.

Et dataetisk grundlag

Vi står midt i udviklingen. Prædiktive algoritmer og systemer er overalt i de digitale systemer, der i dag udgør en stor del af vores samfund. Men det er en udvikling, vi tror kan styres baseret på nogle grundlæggende dataetiske værdier.

Vi ser teknologierne som en integreret del af den støtte, omsorg og velfærdsydelser, der kendetegner det danske samfund. Teknologierne understøtter mennesket, ikke omvendt. Derfor handler dataetik om at innovere, skabe løsninger, teknologier og dataprocesser med menneskets behov i centrum. Vi bør derfor stille en række fundamentale dataetiske spørgsmål til de systemer, vi er i gang med at udvikle i samfundet lige nu og her. For de er grundlaget for vores fremtidige samfund.

Vi kan f.eks. stille spørgsmål om, hvem der har gavn af den prædiktive databehandling på individniveau? Er det enkelte menneskes behov og rettigheder tænkt ind her? Vi bør altid spørge, hvem der har kontrol over den data, som prædiktionen bygger på. Er der gennemsigtighed i dataprocesserne? Forstår mennesker, hvad der sker med deres data? Kan systemet udbedres og data slettes? Og kan dataprocesserne tåle at blive auditeret af en uafhængig tredjepart?

Disse og mange andre dataetiske spørgsmål synes vi mangler i den offentlige debat om datasystemerne i det danske samfund. Vores holdning er, at de skal stilles, oplyses, undersøges og tages stilling til. Det er helt afgørende for udviklingen af det danske samfund, at det sker med respekt for demokratiske principper og frihedsrettigheder. Vi bør bygge bæredygtige systemer, der ikke bare håndterer risici lige nu og her, men kan bære vores menneskelige værdier ind i fremtiden. Udviklingen går ekstremt hurtigt, så vi har travlt, hvis ikke teknologien skal komme før mennesket.

Comments are closed.

Password Reset
Please enter your e-mail address. You will receive a new password via e-mail.