Automatisering
05. Kan jeres automatiserede system forklare sig selv?
Som borgere i demokratiske og frie samfund er vi vant til at kunne få en forklaring på beslutninger, der vedrører vores liv. “Du skal betale et rykkergebyr, FORDI du betalte 3 dage senere end den aftalte frist” eller “Du skal sidde 30 dage i fængsel, FORDI du overtrådte straffelovens paragraf 266”.
Der er dog mange automatiserede systemer, der er designet på en måde, så de ikke er i stand til at give den slags forklaringer. Og særligt maskinlærende systemer kan være dårlige til at give begrundelser, som
mennesker kan forstå. Det kan skabe etiske problemer i de tilfælde, hvor mennesker forventer at få en forklaring på en algoritmisk beslutning, men systemet er ude af stand til at give en sådan. I takt med at automatiserede systemer træffer flere og flere beslutninger, opstår der altså et behov for, at systemerne er designet på en måde, så de kan give en forklaring på deres beslutninger.
Det er dog i høj grad en etisk afvejning, hvornår et system skal kunne forklare sig selv. Det gælder naturligvis for beslutninger med vidtrækkende konsekvenser for menneskers liv, men i praksis vil der være mange algoritmiske beslutninger, som ikke behøver forklaringer, fordi de er for trivielle og hverdagsagtige (eksempelvis en algoritme, der automatisk slukker for lyset i et lokale).
Anbefalinger:
-
Prøv altid at designe algoritmer, så de forklarer sig selv, mens man bruger dem.
-
Om muligt bør I undgå black box-algoritmer, når forklaring er vigtig.
-
Sørg altid for at lave digitale designs, hvor brugeren kan udbede sig en forklaring på en algoritmisk beslutning.
-
I sidste instans bør man altid kunne få en forklaring på en algoritmisk beslutning af et menneske.
-
Gør jeres algoritmer åbne og tilgængelige, så eksperter kan “åbne motorhjelmen”.
-
Invitér eksperter indenfor til at lave reviews af jeres algoritmer.