FAQ – dataetiske principper

Nedenfor følger en række ofte stillede spørgsmål, når det gælder DataEthics.eu’s dataetiske principper og vores svar i alfabetisk rækkefølge.

 

Adfærdsdesign
Hvad er dataetisk adfærdsdesign?
Brug af persondata til at påvirke brugeres adfærd kan være manipulerende, såfremt brugeren ikke er i centrum, men designet primært er udviklet for at skabe afhængighed, flere brugere, mere brug og fremme salget. Dataetisk adfærdsdesign er gennemskueligt for brugeren, ikke-diskriminerende og ikke afhængighedsskabende. Det enkelte menneske skal kunne bevare sin selvbestemmelse og handlekraft.

Aktiv part
Hvad betyder det at være aktiv part?
Hvis en læge skriver noget om dig i en patientjournal, eller en lærer registrerer noget om dit barn eller dig som far, som du mener er unuanceret, så kan du bidrage med flere oplysninger, som er synlige for alle, der har adgang til dine data. Et dataetisk forsikringsselskab giver dig også adgang til at kommentere på de konklusioner, de har draget baseret på din data.

Aktivering af data
Hvad vil det sige at aktivere sine data?
GDPR giver det enkelte menneske ret til at kontrollere egne data og til “portabilitet”, dvs. at få sine data udleveret i et brugbart format, så man fx kan bruge dem igen hos en konkurrent (fx hvis du vil have din historik med over dit elforbrug). Individuel datakontrol er dog ikke nok på længere sigt. Individer vil også fremadrettet stille krav om at kunne aktivere egne data og sætte dem i spil med det formål at kunne berige egen økonomi, sundhed og hverdag. Dette vil også være til gavn for den virksomhed eller institution, der stiller nye tjenester til rådighed, hvor individet kan aktivere egne data.

Anonymisering
Hvad er etisk ansvarlig anonymisering?
Pseudonymisering betyder, at man ikke direkte kan se, hvem oplysningerne vedrører, men at man har stadig mulighed for at genskabe identiteten på de personer. Anonymisering er skridtet videre. Ingen bør ved anonymisering kunne genskabe identiteten. Både ved pseudonymisering og anonymisering af data er det vigtigt at kunne dokumentere dette og tillade en tredjepart at se ind i maskinrummet for at verificere, evt. certificere, dette. Der er ikke mange eksterne tredjeparter, der tilbyder at gøre dette i dag, men det bliver en vigtig indsats fremadrettet, jf. “Ekstern kontrol”.

Bias
Hvad er bias i design?
Bias er indbyggede fordomme og negative stereotyper. Bias kan forekomme i træningsdata, dvs. de historiske data, man bruger til at udvikle en selvlærende algoritme. Bias kan også forekomme i designet af en algoritme, som kan kategorisere og stemple mennesker på en måde, der diskriminerer mellem fx befolkningsgrupper. Dette kan mindskes ved manuel sortering og oprydning i data, og ved at sikre, at algoritmen kan forklares og kan efterses af en uafhængig instans. Fx var vinderne i den første skønhedskonkurrence, der blev bedømt af en selvlærende algoritme, stort set alle hvide mennesker, fordi algoritmen var blevet trænet på flest billeder af hvide mennesker. Der manglede således flere billeder af sorte mennesker i selve træningen af algoritmen, der bedømte indsendte billeder.

Databerigelse
Hvad er web-scraping, og kan det gøres etisk ansvarligt?
Man kan berige sine data med web-scraping fra websites, herunder sociale medier (alt det, der er åbent og offentligt for alle). Men det er kontroversielt, for selv om data er tilgængelige for alle og lovlige at bruge, er det ikke sikkert, at brugerne synes, det er etisk forsvarligt. Derfor skal du sikre dig, at det sker på foranledning af og med brugernes informerede samtykke.

Datadeling
Hvornår er det uetisk at bruge tredjeparts cookies?
Hvis en virksomhed eller organisation har med børn og andre sårbare at gøre, er det ikke dataetisk at tillade tredjeparts cookies på ens hjemmeside, da det er lig med deling af identificerbare følsomme data med tredjepart. Hvis man har med sundhedsdata eller data omkring politiske tilhørsforhold, seksuel eller religiøs orientering eller andre følsomme data at gøre, er det heller ikke dataetisk at tillade tredjeparts cookies på ens hjemmeside. Offentlige instanser, der deler data om borgernes adfærd via tredjeparts cookies, herunder SoMe-cookies, er heller ikke dataetiske. De færreste forbrugere og borgere forstår datadelingen og opfatter den som skjult, selv om de har sagt ja til den via en pop-up. Det kan dermed være lovligt, men det overtræder flertallets creepines grænse og må derfor anses som uetisk.

Datalagring
Hvornår er datalagring etisk problematisk?
Det kan sagtens være lovligt at lagre data i et land uden for EU. Men ikke alt, der er lovligt, er etisk. Det kan for eksempel diskuteres, om det overhovedet er etisk forsvarligt at lagre sine data i en virksomhed med hovedsæde i et land, der praktiserer og tillader datadiktatur eller datamonopoler. Det mener vi ikke. Lagring af data i egne servere, hvor man altid har kontrol over data eller i en cloud-provider med hovedsæde i EU/EØS, kan derimod godt betragtes som dataetisk.

Ekstern kontrol
Hvorfor uafhængig auditering?
Det er vigtigt – i hvert fald fremadrettet –  at jeres databehandling kan tåle at blive gennemgået og verificeret af en uafhængig ekstern auditør. Ligesom med miljøet, børnearbejde og IT-sikkerhed får flere og flere brugere behov for at vide, at det I siger, også er det, I gør. I dag findes kun få troværdige ordninger, som verificerer eller certificerer, såsom ISO og Europrise, men i kølvandet på GDPR har EU varslet en decideret europæisk privacy-mærknings-ordning, ligesom der uden tvivl også kommer flere andre typer mærkningsordninger.

End-to-end kryptering
Hvad er kryptering?
En ting er at kryptere trafikken, så ingen kan opsnappe data, der er i transit. En anden ting er såkaldt end-to-end-kryptering, hvor ingen andre end afsender og modtager kan se indholdet – heller ikke den virksomhed, der ejer platformen, hvor kommunikationen finder sted. Især det sidste er blevet et godt dataetisk argument.

Forklarlighed
Hvad er forklarlighed?
Algoritmer skal kunne forklares, så mennesket forstår det. De skal ikke blot give basal information om databehandlingen, men det skal være dokumenteret og forklaret, hvordan en given algoritmisk beslutning er truffet; hvilke kriterier og parametre der ligger til grund for fx en kreditvurdering, forsikringspræmie eller tildeling af social ydelse.

Forudsigelser
Hvad er dataetiske forudsigelser?
Det kan være okay at udarbejde individuelle forudsigelser med fx personaliseret medicin og behandling. Det dataetiske spørgsmål er, hvorvidt individet har indsigt og mulighed for indsigelse og til at sige nej eller til at vælge til og fra.

Kunstig intelligens (AI)
Hvordan håndterer vi kunstig intelligens bedst?
Det gør vi kun ved at sikre menneskelig kontrol. DTU Compute har formuleret en række meget fine Safe AI-principper:
Safe AI er sikker og har bestået test og verifikation og er robust over for systematiske og velinformerede angreb.
Safe AI er selvbevidst fordi AI forstår sin egen rolle og usikkerhed og kan fx afslå at handle
Safe AI kan holde på en hemmelighed og beskytte privatliv. Privacy by design er indbygget
Safe AI har veldefinerede værdier og er renset for stereotyper og bias samt forstår emotioner
Safe AI har sociale kompetencer, fordi AI forstår sociale relationer og forstår brugerens viden og kompetencer
Safe AI forstår magt dvs forstår data og handlingers kontekst og konsekvenser
Safe AI er dokumenteret transparent og kommunikerende, right to explanation
Safe AI er open source: metoder, koder og testresultater er tilgængelige for alle
Kilde: Professor Lars Kai Hansen, DTU Compute

Metadata
Hvad er metadata?
Metadata er “data om data” eller en slags varedeklaration for data, der kan give information om datasæt og -tjenester. Det kan eksempelvis være data om, hvem der har sendt en email til hvem og hvornår. Metadata fortæller altså intet om, hvad der bliver skrevet i e-mailen. Der har været diskussioner om, hvorvidt metadata er personoplysninger, dvs. om det er muligt at identificere en person på baggrund af metadata. Der er dog ikke tvivl om, at metadata er et stærkt redskab til at kortlægge adfærd, omgangskreds, vaner mv. samt til brug for profilering. Det dataetiske spørgsmål er, om man kan identificere og informere om brug af metadata, samt om brugeren kan få indsigt og adgang til metadata.

Offentlige platforme
Hvad er dataetisk brug af offentlige platforme?
Først og fremmest er det vigtigt at benytte offentlige platforme, hvor man selv har kontrol over data. Det er vigtigt at have retningslinjer for brug af platformen og moderere den, så individers følsomme persondata så vidt muligt ikke eksponeres.

On-device processing
Hvad er on-device processing?
Frem for at indsamle og lagre andre persondata til egen server eller cloud kan man behandle data direkte på brugernes enheder. Det gør Apple med Siri, det gør Wire og Cliqz. Når der så er behov for server-behandling af data, indsamles data anonymt uden at kunne identificeres.

Open source
Hvorfor er open source godt?
Open source betyder, at kildekoden i dine programmer er frit tilgængelig, og at andre kan forbedre, teste, fejlrette og sikre systemet – der er support fra hele verden, og sikkerhedshuller fanges ofte hurtigt. Open source er ikke nødvendigvis gratis men er ofte billigere og gør dig uafhængig af leverandøren. Og så er der tale om gennemsigtighed: Dine brugere – eller tredjeparter – kan selv konstatere, hvad produktet indeholder.

Organisatorisk forandring
Hvad er dataetisk organisatorisk forankring?
Dataetik er ikke et “one man job”. Det er en bred tilgang, der dækker alt fra fx produktudvikling, innovation og marketing til strategisk udvikling. Den dataetiske tilgang bør derfor være drevet helt fra topledelsen og være understøttet som en værdi blandt medarbejderne. Det kan gøres på forskellige måder. For eksempel har Apple privacy-eksperter, der er involveret i alle produktudviklingsteams fra starten, og AXA har et board, der bliver fløjet til Paris tre gange om året for at diskutere dataetiske dilemmaer.

Privacy by Design
Hvad er Privacy by Design?
Privacy by Design (PbD) handler om, at standardindstillingen på en tjeneste er privat (private by default), og at den designes og udvikles med privacy som udgangspunkt. De første PbD-principper blev udviklet i 1990’erne af Ann Cavoukian, tidligere direktør for datatilsynet i Canada. Men siden da har de udviklet sig. Man kan også vælge at se PbD som en forretningsfilosofi, dvs. en innovativ tilgang til den digitale forretningsudvikling, hvor privacy er udgangspunktet for alle de forskellige innovative forretningsprocesser, en virksomhed sætter i gang, lige fra design og teknologisk udvikling til human ressource-udvikling, CSR og markedsføring. PbD-principperne bliver på den måde en generel vejledning til at bygge alternativer til den datadrevne public-by-default virksomhedstype.

Profilering
Hvad er profilering?
Profilering er en automatisk behandling af data, der analyserer bestemte personlige forhold vedrørende en person for at lave forudsigelser vedrørende fx dennes arbejdsindsats, økonomiske situation eller helbred. Profilering er en dataetisk udfordring, fordi det er den mest intense form for behandling af persondata, og man skal derfor allerførst afgøre, om der findes et retsgrundlag for profileringen. En dataetisk profilering vil altid være udviklet til fordel for individet, og individet vil have mulighed for at influere og bestemme værdier, regler og input, der bruges i profileringen.

Salg af data
Kan man sælge data til tredjepart på etisk ansvarlig vis?
Det er ulovligt at sælge data til tredjepart, medmindre man har et klart samtykke til det. Et flertal af danskere tror, at organisationer sælger data videre til tredjepart. Det gør de ikke nødvendigvis, men derfor kan det være vigtigt at forklare dét, man selv tager for givet. Man kan godt sælge data til tredjepart etisk ansvarligt, hvis der er tale om fuldt ud anonymiserede oplysninger baseret på mønstre blandt en gruppe af borgere.

Sårbare
Hvem er særligt sårbare, når det gælder databehandling?
Der indsamles ofte flere data om særligt sårbare mennesker såsom flygtninge, personer med fysisk handicap, psykisk syge, socialt udsatte, arbejdsløse, indsatte osv. Fx indsamler Udbetaling Danmark mange oplysninger om ydelsesmodtagere og deres samlevere og husstand og formodede samlevere og husstand.

Tjene penge
Kan man så ikke tjene penge på databehandling?
Jo, det kan man, hvis mennesket er i centrum. Økonomiske interesser kan aldrig tilsidesætte menneskets grundlæggende rettigheder såsom retten til privatliv, selvbestemmelse og til ikke at blive forskelsbehandlet eller stigmatiseret. Dette kan eksempelvis opnås ved Privacy-by-Design.

Transparens
Hvad er transparens?
Det er ikke nok blot at have en “Transparency Report”, der fx handler om, hvor mange gange staten beder om adgang til en virksomheds data med en dommerkendelse. Transparens handler også om egne dataprocesser. Transparens er skridtet videre end basale juridiske krav til samtykke og mulighed for indsigt og indsigelse. Datasystemer og -processer designes til at skabe tillid hos individet samt til at give individet reel mulighed for at gøre indsigelse mod behandling af data. Det enkelte menneske skal kunne modsætte sig databehandlingen uden at miste rettigheder.

Zero-knowledge
Hvad er zero-knowledge-principper?
Ifølge GDPR må man ikke opbevare data længere, end det er nødvendigt i forhold til formålet. Man kan vælge at gå længere end lovgivningen og slette data, før det er nødvendigt, fordi man ikke ønsker at sidde på risikoen ved at have ansvaret for følsomme data. Man kan fx vælge automatisk at slette data efter x-antal timer som hollandske TomTom gør det med lokationsdata.

Få flere informationer på DataEthics.eu, hvor du kan finde værktøjer og services, der kan hjælpe med dataetikken, målrettet individer såvel som organisationer.

Se vores dataetiske principper

Password Reset
Please enter your e-mail address. You will receive a new password via e-mail.