Skip links

Midt i en algoritmeøkonomi med lukkede øjne

(Image from the Ethics of Algorithms project, Center for Internet and Human Rights)

Blog: Hvordan kan vi sætte spørgsmålstegn ved en online datatjenestes etik, hvis vi ikke ved, hvordan den er designet til at handle på data? Hvordan kan vi sætte et sundhedsvarsel på et produkt, hvis vi ikke kender ingredienserne? Etik er noget, der skal tænkes ind i de innovative processer, designet ind i tjenesterne fra starten. Etik skal være en del af algoritmerne.

(Post baseret på intervention ved IGF 2015 Joao Pessoa, Brasilien)

Algoritmer er forretning. Det er dem, som skaber værdi af data. Industrien ved dette, og alle de allerstørste aktører i techbranchen investerer kraftigt i kunstig intelligens og intelligente algoritmer. Facebook, Google, Amazon, IBM. De åbner nye forskningsafdelinger, hyrer personale med ekspertise på området i stor stil, og dedikerer store mængder af deres budgetter på området.

Vi står med lukkede øjne midt i en heftigt udviklende økonomi baseret på at finde mønstre i data, oprette profiler, forudsige og reagere på data, finde mening i data og omdanne den til værdi. Der er dem, som kalder dette for algoritmeøkonomien. Fordi det er algoritmerne, der er værdiskaberne. De er de succesfulde virksomheders opskrifter og er derfor naturligvis baseret på subjektive forudsætninger, måske endda fordomme og interesser – kommercielle, statslige, videnskabelig etc.

Det kuriøse er her, at denne nye økonomi – med en hel række af nye virksomheder, tjenester, produkter, infrastrukturer osv. med en stærk investering af forskellige interesser – stormer fremad uden etisk tilsyn, helt uden for det offentlige udsyn.

Der er en total mangel på gennemsigtighed i de proprietære værdiskabende algoritmer. De anvendes usynligt. De mennesker, de handler på, har ikke adgang til dem. Deres grundlæggende funktion og source code er hemmelige. Hemmelige som opskriften på Coca Cola. Men med en enorm indflydelse på vores hverdagsliv, som beskrevet af Francesco Lapenta i denne Re:publica tale.

Mange af branchens giganter tilbyder “developer clouds” til udviklere og iværksættere. Men den måde de tilbyder dem på er symptomatisk for den type Black Box samfund, som Frank Pasquale har beskrevet. De tilbyder kun API’er, redskaber til at gøre brug af deres algoritmer. Det betyder, at ikke engang de udviklere af disse nye datadrevne tjenester kender opskriften til de tjenester og produkter, de udvikler. De bliver forsynet med redskaber til at skabe mening ud af deres data, men de besidder ikke den faktiske værdi, som er de algoritmer, der skaber meningen og værdien.

Et eksempel er IBMs “Watson Eco System”. Det er her IBM tilbyder iværksættere “Watson partnerskaber” til at udvikle deres tjenester og forretningsidéer. En af disse nye tjenester er for eksempel Unitesus – en online karriere platform, der matcher arbejdsgivere og arbejdstagere f.eks på baggrund af et kulturelt match udført af Watsonteknologien. Dybest set betyder det, at en algoritme profilerer og matcher en person med en potentiel arbejdsplads’ kultur osv .: “Custom build your perfect employee based on personality, experience, values, skills and company cultural fit”. Forestil dig, at dine fremtidige karrieremuligheder bliver afgjort af en hemmelig algoritme, der finder mønstre i for eksempel din sociale mediehistorie og profilerer dig som én type medarbejder eller en anden – ansættelsesværdig eller ej. Forestil dig den dag, hvor karriere services som denne bliver en del af Tingenes Internet. Et evigt internetforbundet omsiggribende miljø, der måler dine faglige evner og personlighed baseret på dine bevægelser i dit fysiske miljø? Et centraliseret og lukket proprietært miljø, som det Julia Powles beskriver.

Forestil dig de etiske implikationer. Det kan du ikke, for hvordan kan du sætte spørgsmålstegn ved en tjeneste, et produkt, en internet tings etik, hvis ikke engang udvikleren af dette produkt selv ved præcis, hvordan hans/hendes produkts algoritme er udviklet til at handle på data? Hvordan kan vi sætte et sundhedsvarsel på et produkt, hvis vi ikke kender ingredienserne?

Snakken om etik bliver hul, hvis vi ikke har indsigt i opskrifterne på de hemmelige algoritmer. Etik er noget, der skal tænkes ind i de innovative processer, designet ind i tjenesterne fra starten (som Ind.ie efterspørger det i deres Etiske Design Manifest). Etik skal være en del af opskriften. Der skal være en afbalancering af interesser fra begyndelsen – menneskelige, kommercielle, sociale osv. Der skal indarbejdes etiske ikke-diskriminerende kriterier for algortimernes profilering og forudsigelser. Lige nu ser vi kun konsekvenserne og resultaterne af algoritmisk behandling af data. Nogle af disse konsekvenser kan vi allerede se er direkte diskriminerende. Som når et stykke software afgør, om man er egnet til et job baseret på ens sociale mediehistorie, der samtidig afslører ens sociale status. Men ser vi kun på konsekvenserne er vbi allerede for sene på den. Det er presserende, at vi får adgang til og overblik over den algoritmiske økonomi nu.

Comments are closed.