Rapport. I sin videnskabelige artikel “How The Machine ‘Thinks’: Understanding opacity in machine learning algoritms” (Januar 2016) diskuterer Jenna Burrell fra UC Berkley School of Information metoder til at undersøge opacitet (uigennemsigtighed) i algoritmer. Ordet ‘algoritme’, der oprindeligt har været forbeholdt en teknisk verden beboet af dataloger og programmører, er over det sidste år blevet et “buzz word” i erhvervslivet. I så høj grad, at diskussioner om “big data” i dag stort set altid vil, eller i hvert fald bør, indeholde en reference til “algoritmeøkonomien“, dvs. en gryende økonomi baseret på at finde mønstre i data, oprette profiler, forudsige og reagere på data, skabe mening ud af data og omdanne den til værdi.
Samtidig med denne udvikling af erhvervslivets datadiskurs, ser vi en stigende etisk bekymring blandt de hurtigste politiske beslutningstagere, organisationer og akademikere verden over særligt forbundet med uigennmsigtigheden i de proprietære algoritmiske systemer (En af de mest betydningsfulde stemmer er juraprofessor Frank Pasquales bog fra sidste år “The Black Box Society“).
Netop uigennemsigtigheden i algoritmerne er en af denne nye data æras største dilemmaer, for hvordan kan vi vurdere etikken i en tjeneste, et produkt, en internet ting, hvis vi ikke ved, hvordan de er designet? Hvordan sikrer vi etiske standarder for klassificering, analyse og handling på data?
I artiklen, som blev offentliggjort i januar 2016 i Big Data & Society, diskuterer Jenna Burrell, hvordan man kan undersøge algoritmers gennemsigtighed med eksempler fra aktuelle kodningsprocesser og -uddannelser. Hun skelner mellem forskellige typer af uigennemsigtighed, f.eks “opacitet som teknisk analfabetisme” og “opacitet som forsætlig forretningshemmelighed eller statshemmelighed”, og peger på kompleksiteten involveret i at undersøge uigennemsigtighed i machine learning algoritmer og vurdere deres indvirken.
Permalink
Permalink