Automatisering
02. Overholder jeres automatiserede systemer lovgivning og menneskerettigheder?
Automatiserede systemer bruges i stigende grad til at træffe beslutninger, der kan have betydning for menneskers liv.
Det første etiske spørgsmål, I bør stille jer selv, er derfor, om det automatiserede system træffer beslutninger, som respekterer de helt grundlæggende menneskerettigheder.
Et stort problem ved automatiserede systemer handler om, at de med deres beslutninger kan komme til at diskriminere uretfærdigt. Diskriminering kan være etisk i orden, men ikke hvis der diskrimineres på grundlag
af faktorer som køn, race, etnicitet, genetik, sprog, religion, politisk overbevisning, handicap, alder eller seksuel orientering (ikke udtømmende liste).
Vær også opmærksom på, at jeres automatiserede system ikke skader børn, at det respekterer retten til privatliv og retten til ytringsfrihed.
Anbefalinger:
-
Tilstræb at jeres udviklingsteam har en bred diversitet og dermed en åbenhed over for minoriteters brug af jeres løsning.
-
Inddrag minoriteter og udsatte målgrupper i jeres brugerundersøgelser.
-
Sørg for at få jeres automatiserede system kontrolleret af eksperter i menneskerettigheder.
Det dårlige eksempel:
Den Israelske kunstig intelligensvirksomhed Faception hævder, at den kan analysere folks ansigter og forudsige, om de er terrorister, akademikere eller højt begavede.
Det er højst tvivlsomt, om virksomheden overhovedet er i stand til dette, og der er derudover en meget stor risiko for, at deres algoritmer kommer på kant med grundlæggende menneskerettigheder vedrørende diskrimination.
F.eks. er det overvejende sandsynligt, at algoritmen vil kategorisere folk med et arabisk/mellemøstligt udseende som værende terrorister.
Det gode eksempel:
Corti er en dansk virksomhed, som har udviklet en maskinlærende algoritme, som lytter med på 112 opkald. Algoritmen kan genkende mønstre i samtalerne, som tyder på, at der er tale om et hjerteslag, hvilket betyder, at man kan få sendt en ambulance afsted hurtigere.
Algoritmen er trænet på gamle 112-opkald, hvilket betyder, at mindre dialekter som f.eks. bornholmsk er underrepræsenteret i datamaterialet. Det kan i værste fald betyde, at algoritmen diskriminerer mod bornholmere og simpelthen opdager færre hjerteslag på Bornholm. Corti sørger derfor løbende for at kontrollere algoritmerne for bias og i tilfældet med bornholmsk dialekt har man simpelthen valgt at træne algoritmen på flere bornholmske 112-opkald.