På den måde bringer ekspertgruppens dataetiske kompas os på niveau med EU’s databeskyttelsesråd og High-Level Expert Group on AI (kunstig intelligens, red.), og på den tendens, der strømmer igennem anbefalinger fra Dansk IT herhjemme til IEEE på den globale bane.
De er også i god samklang med de dataetiske principper, DataEthics offentliggjorde i sommer.
Mennesket skal prioriteres
Det er så smukt, som det kan være. Udfordringen ligger nu i at få forankret kompassets værdier om prioritering af mennesket, vores selvbestemmelse og kontrol med egne data, vores værdighed samt ret til beskyttelse mod diskrimination og uretfærdighed i den buldrende udvikling af nye former for teknologier til databehandling.
Aktuelt er det algoritme-økonomien og den ekstreme dataudnyttelse, der er knyttet til machine learning og AI ved kreditvurdering, udmåling af straffe, forudsigelser om omsorgssvigt og individuel sundhed, der giver de største værdimæssige problemer.
Virksomheder har en legitim interesse i at drive deres forretning profitabelt, og myndigheder i at sikre velfærdsgoder, effektiv infrastruktur og sundhedsbehandling af høj kvalitet inden for en acceptabel økonomisk ramme; men hvor er balancen mellem disse interesser og den enkelte kunde eller borgers rimelige forventning om brug af hans eller hendes data?
Og har vi som enkeltpersoner overhovedet forudsætningerne og indsigten til at forstå konsekvenserne af datahøst og profilering?
Omgangen med data kræver rettidig omhu
Ved at tale værdierne om selvbestemmelse, værdighed, lighed og retfærdighed ind i lovgivning og politiske initiativer, ind i den daglige omgang med data og design og brug af datatekniske systemer – sådan som ekspertgruppen foreslår – får vi nogle pejlemærker til at besvare disse spørgsmål.
Kompasset tager os i en retning, hvor det er naturligt at afkræve alle beslutningstageres, både i privat og offentlig sektor, aktive stillingtagen til, om deres dataanvendelese går imod menneskets og gruppers legitime interesser, og så handle derefter.
Og så fordrer kompasset også et eftersyn af den ledelse, der bedrives.
Virksomheder skal udvise ansvarlighed, forstået som rettidig omhu i forhold til dataindsamling og -behandling og de risici, der er forbundet hermed.
Ikke kun i deres egne interne værdikæder, men også i leverandørkæden og i de samarbejdsrelationer, de indgår i.
Tænk, hvad en aktiv stillingtagen her kunne betyde for alle de datagaver, vi i øjeblikket er vilde efter at give til techgiganter, for vores outsourcing af vigtig infrastruktur og aflivning af krigsreglen.
Data i menneskets tjeneste
Samtidig skal vi selvfølgelig ikke lukke øjnene for de landvindinger, teknologien kan bidrage med, men understøtte progressiviteten med tekniske og organisatoriske løsninger for etisk ansvarlig datahåndtering.
En af disse løsninger er faktisk også en kompasværdi, nemlig diversitet i de teams, der udvikler datasystemer. Fremover er det ikke nok at have matematiske formler og computer science i baggagen.
Den dataetiske ansvarlighed kræver supplerende former for indsigt, for eksempel i sociale, økonomiske og demografiske forhold, i juridiske begrænsninger og etiske dilemmaer, og mangfoldige baggrunde i køn, alder og etnicitet.
Kun på den måde får vi indarbejdet et blik for befolkningsgruppers behov, interesser og udsathed i udviklingen af ny teknologi og bliver bevidste om konsekvenserne af at bruge den.
Rapportens titel siger det egentlig enkelt og med patos: data i menneskets tjeneste. I DataEhics ser vi frem til fortsat at kunne bidrage til at nå et så stort og vigtigt mål.