top of page

Automatisering

06. Er jeres algoritmer fordomsfulde?

Moderne kunstige intelligenser og automatiserede systemer er meget ofte baseret på maskinlæring, hvor algoritmen lærer at træffe beslutninger ved at “observere” data fra den virkelige verden.


De etiske problemer opstår for det første, når disse data er dårlige og ikke repræsenterer den virkelige verden, f.eks. hvis man kun træner sin ansigtsgenkendelsesalgoritme på hvide mennesker. For det andet kan fordomsfulde algoritmer opstå, hvis de afspejler en virkelighed, som allerede er fordomsfuld. Algoritmerne automatiserer blot eksisterende fordomme som racisme eller kønsdiskrimination.


Man taler også om, at algoritmerne bliver biased – altså skævvredne, så de ikke repræsenterer virkeligheden, eller så de diskriminerer på en måde, som ikke er ønskelig.


Det er vigtigt at forstå, at man aldrig kan fjerne fordomme fuldstændig, så målet er ikke fordomsfri algoritmer men derimod algoritmer, hvor man kender til deres fordomme, og hvor deres fordomme er i overensstemmelse med bredt accepterede menneskelige fordomme.

Anbefalinger:

  • Kontroller at data til maskinlæring repræsenterer alle stakeholders, der kan blive påvirket af algoritmen.

  • Undgå at jeres digitale løsning automatiserer eksisterende og uønskede fordomme.

  • Kontroller løbende jeres algoritmer for fordomme og brug helst uvildige eksperter til dette.

  • Sørg for at have diversitet i jeres udviklingsteam for at øge opmærksomheden på uønskede fordomme.

Det dårlige eksempel:

IBM, Microsoft og Mevii har alle udviklet software til ansigtsgenkendelse, som siges at kunne identificere folk med 99% nøjagtighed. En undersøgelse fra MIT Media Lab fandt dog ud af, at denne nøjagtighed kun var gældende ved ansigtsgenkendelse af hvide mænd. Nøjagtigheden faldt ved identificering af kvinder, sorte og mest, når det gjaldt sorte kvinder, hvor nøjagtigheden faldt til 65%.

 

Det viste sig, at IBM har brugt billeder af parlamentarikere som datasæt, hvilket kan forklare forskellen i præcisionen.

Det gode eksempel:

Når virksomheder skriver jobannoncer, kan de gennem deres sprogbrug risikere at gøre forskel på folk på baggrund af køn, alder og social baggrund. F.eks. ved at skrive i et sprog, der henvender sig mere til unge end til ældre.

 

Ved brug af kunstig intelligens, identificerer programmet Textio netop denne type forskelsbehandling, og guider virksomheder til mere inkluderende sprogbrug.

 

Virksomheder kan benytte sig af Textio især inden for rekruttering for at sikre mere diversitet blandt medarbejdere.

bottom of page