Ansigtsgenkendelses teknologier er forudindtagede by design

Googles billedegenkendelsessystem, som mærker et billede af et par venner med mørk hud som gorillaer eller et lufthavnssystem, der nægter at anerkende en transgender person som kvinde.  Ansigtsgenkendelsesteknologier (facial recognition technologies) er i sagens natur forudindtagede, fordi de ofte ikke er designet til at matche en verden af ​​forskellige typer af mennesker, skriver Rose Eveleth i en klumme i online magasinet Motherboard. Klummen er baseret på interviews med designere af ansigtsgenkendelsesteknologier og eksperter i etik og teknologi. Problemet er, siger hun, at “… et homogent team producerer homogene produkter til en meget heterogen verden”. En central udfordring er her, at designerne af systemerne ikke anerkender, at der er et problem med bias i systemerne. Men det er der. En computer genkender kun de ansigter, det er blevet fodret med. Det betyder, at hvis systemet kun er blevet trænet til at se på et homogent sæt af ansigter, vil det kategorisere tilsvarende. En løsning er derfor at fodre systemet med et mere varieret sæt af træningsdata. En anden mulighed er en ekstern etisk revision af algoritmerne.

Men det fundamentale spørgsmål er etisk i natur – ønsker vi i det hele taget, at mængden bliver genkendt, identificeret og kategoriseret (præcist eller ej ..)?

 

16836491502_87fc3335df_z

Læs “The Inherent Bias of Facial Recognition”

Billede af: Sheila Scarborough

Comments are closed.

Password Reset
Please enter your e-mail address. You will receive a new password via e-mail.