Automatisering

06. Er jeres algoritmer fordomsfulde?

Moderne kunstige intelligenser og automatiserede systemer er meget ofte baseret på maskinlæring, hvor algoritmen lærer at træffe beslutninger ved at “observere” data fra den virkelige verden.


De etiske problemer opstår for det første, når disse data er dårlige og ikke repræsenterer den virkelige verden, f.eks. hvis man kun træner sin ansigtsgenkendelsesalgoritme på hvide mennesker. For det andet kan fordomsfulde algoritmer opstå, hvis de afspejler en virkelighed, som allerede er fordomsfuld. Algoritmerne automatiserer blot eksisterende fordomme som racisme eller kønsdiskrimination.


Man taler også om, at algoritmerne bliver biased – altså skævvredne, så de ikke repræsenterer virkeligheden, eller så de diskriminerer på en måde, som ikke er ønskelig.


Det er vigtigt at forstå, at man aldrig kan fjerne fordomme fuldstændig, så målet er ikke fordomsfri algoritmer men derimod algoritmer, hvor man kender til deres fordomme, og hvor deres fordomme er i overensstemmelse med bredt accepterede menneskelige fordomme.

Anbefalinger:

  • Kontroller at data til maskinlæring repræsenterer alle stakeholders, der kan blive påvirket af algoritmen.

  • Undgå at jeres digitale løsning automatiserer eksisterende og uønskede fordomme.

  • Kontroller løbende jeres algoritmer for fordomme og brug helst uvildige eksperter til dette.

  • Sørg for at have diversitet i jeres udviklingsteam for at øge opmærksomheden på uønskede fordomme.