Peter Svarre - petersvarre.dk - Nørrebrogade 110A, 1.tv, 2200 København N, tlf: 40409492, mail: peter@petersvarre.dk

Vi har brug for en algoritmisk politik

October 16, 2017

[Kronik i Politiken, søndag 15. oktober 2017]

 

”I fucking hate feminists and they should all die and burn in hell”.

 

“Hitler was right I hate the jews.”

 

Den 24. marts 2016 kunne man læse disse kontante udmeldinger på Twitter. De kom ikke, som man skulle tro, fra et sørgeligt udskrab af en alt-right Twitter-troll, men derimod fra en repræsentant for ét af verdens største teknologivirksomheder. Repræsentanten var godt nok ikke af kød og blod, men var en virtuel repræsentation af en 19-årig pige ved navn Tay. Eller mere præcist en kunstig intelligens, som Microsoft havde sluppet løs på Twitter for at teste deres teknologi i den virkelige verden.

 

Resultatet: Efter 16 timer havde Tay tweetet 96.000 gange og havde udviklet sig fra at være en kølig maskine til at være en fuldt udfoldet misogyn, nazist, som Microsoft hastigt slukkede for og lagde på is.

 

Eksperimentet var naturligvis slået fejl. Hvis kunstige intelligenser skal give mening, nytter det jo ikke noget, at de render rundt og spreder had mod jøder og feminister. I teknologikredse blev eksperimentet set som et eksempel på en umoden kunstig intelligens (AI), som endnu ikke var klar til at blive sluppet ud i den virkelige verden. Den gængse opfattelse i disse kredse er, at hvis AI skal gøre en forskel i den virkelige verden, er vi nødt til at gøre dem intelligente nok til at være fri for fordomme.

Men hvad nu, hvis den fordomsfri kunstige intelligens slet ikke findes? Hvad nu hvis det er et uløseligt paradoks? Hvad nu hvis menneskelig intelligens netop hænger sammen med at have fordomme? I så fald bliver teknologiverdenens stræben mod at skabe den ultimative AI, uden menneskelige fordomme, en logisk umulighed, som i bedste fald vil fejle og i værste fald vil fylde vores naive verden med Tay-lignende agenter, som vi hverken kan forstå eller regulere på nogen meningsfuld måde.

 

I begyndelsen af september samledes tusindvis af digitale eksperter fra hele verden til Techfestival i Københavns Kødby for at diskutere teknologi og dens konsekvenser for mennesket. En lille samling af disse mange eksperter var interesserede i, hvordan man manøvrerer i de endnu ikke kortlagte farvande for kunstige intelligensers etik. Den historiske baggrund for disse møder var de seneste 10 års revolutionerende udvikling inden for kunstig intelligens.

 

Kunstig intelligens er gået igennem forskellige faser over det sidste halve århundrede. Den første fase handlede om at gøre logisk tænkende computere endnu mere logisk tænkende ved at opbygge komplekse regler for, hvordan de skulle tænke. Intelligens blev bygget oppefra-ned ved, at programmører definerede regler, som maskinerne slavisk agerede efter. Metoden viste sig relativt hurtigt at være ineffektiv, fordi det viste sig umuligt at programmere regler for alle de mulige og umulige situationer, som computere mødte, når de kommunikerede med almindelige mennesker. Udviklingen inden for AI-teknologi gik derefter ind i den såkaldte AI-vinter, hvor man i store træk opgav at få computere til at tænke mere som mennesker. Mange forskere mente, at det muligvis endda var grundlæggende umuligt at genskabe menneskelig intelligens i en maskine, fordi menneskers hjerner indeholdt ét eller andet helt unikt, som ikke kunne kopieres.

 

AI-vinteren fik dog en ende med udviklingen af maskinlæring og neurale netværk, som var en helt ny tilgang til, hvordan computere blev klogere på verden. Den grundlæggende tilgang i maskinlæring er, at man kopierer den menneskelige hjernes måde at lære på.

 

Hvis man observerer et to årigt barns måde at lære sprog, vil man se, at barnet er fløjtende ligeglad med grammatiske regler. Barnet observerer, erfarer, eksperimenterer, lykkes og fejler i en løbende proces, hvor hjernen ganske langsomt opbygger mønstre, som baserer sig på de erfarede succes- og fiaskooplevelser. Og ganske uden barnet har den fjerneste idé om verber, substantiver og kasus, kan man se, hvordan disse regler alligevel aflejrer sig som abstraktioner, som barnet kan overføre fra kendte situationer til helt nye situationer. 

 

På ganske samme måde foregår maskinlæring ved hjælp af neurale netværk. Computeren fødes med data – eksempelvis en enorm database af billeder eller store mængder af tekst. Herefter belønnes eller straffes computeren, når den begynder at danne mønstre ud fra disse data. Googles Translate er et eksempel på, hvordan man lærer en computer sprog – ikke ved hjælp af regler, men ved hjælp af maskinlæring. Googles computere fødes med tekster, som allerede er oversat af mennesker, som for eksempel de byzantinske mængder af mangesprogede tekster, der produceres i EU-systemet. Hvis en computer møder sætningen ”Denmark is a small country”, vil den måske gætte på, at det betyder ”Danmark stort land er”. Sætningen er rimelig tæt på mål, men fordi Googles data indeholder den rigtige oversættelse, vil computeren kunne blive belønnet for, at have gættet rigtigt på landet, men straffet for, at ramme forkert på størrelsen. Og den ville få point for noget af grammatikken, men straf fordi grammatikken stadig ikke er lige i øjet. Computeren bliver herefter ved med at køre data gennem systemet, og jo flere data, der køres igennem, og jo flere gange processen gentages, desto tættere kommer den automatiske oversættelse på at være helt korrekt.

 

En vigtig forudsætning for maskinlæring er derfor data, og det er derfor ikke nogen tilfældighed, at AI-vinter er blevet til AI-forår nogenlunde sideløbende med, at internettet har gået sin sejrsgang. Internettet er jo verdens største åbne database, hvor milliarder af mennesker, hver eneste sekund føder den gigantiske maskine med data i form af tekster, billeder og videoer. Når vi i dag lytter til personaliseret musik på Spotify, finder hvad vi leder efter på Google, bliver præsenteret for relevante venner på Facebook, eller får boganbefalinger af Amazon, er det alt sammen eksempler på kunstige intelligenser, som er baseret på maskinlæring, men som aldrig havde været mulige uden internettets massive ophobning af data.

 

Kombinationen af maskinlæring og internettets data er grunden til, at digitale profeter igen er begyndt at tale om, at maskinerne snart bliver lige så kloge – og måske endda klogere – end os. På ganske få år er de kunstige intelligenser gået fra at være primitive og ubehjælpsomme spædbørn til at være tæt på ligeværdige samarbejdspartnere på en lang række områder. De er simpelthen blevet mere menneskelignende med det resultat, at vi er blevet trygge ved at lægge flere og flere områder af vores liv i deres hænder.

 

Men i takt med, at maskinerne bliver mere menneskelige begynder de også at arve nogle af menneskets mørkere sider. Den amerikansk-israelske psykolog/økonom og nobelprisvinder Daniel Kahneman forklarer i sin bog ”At tænke – hurtigt og langsomt”, hvordan menneskets hjerne kan beskrives som en evig kamp og samarbejde mellem to systemer, som han kalder system 1 og system 2. Menneskets logiske og rationelle tankegang ligger i system 2, mens den mere intuitive og hurtige tankegang ligger i system 1. Når vi møder nye mennesker bruger vi system 1 til at afkode tusindvis af små signaler om ansigt, kropsholdning, sprog og så videre. Først hvis system 1 oplever noget underligt eller uforudset bliver system 2 sat i funktion for at skabe mening ud af situationen. System 1 er i sin natur nødt til at fungere ekstremt hurtigt og arbejde med en masse hurtige antagelser om, hvordan verden hænger sammen. Babyer i lyserødt tøj er piger, høje mennesker er klogere, symmetriske ansigter er mere tiltrækkende, er alt sammen eksempler på hurtige antagelser – eller fordomme – som system 1 anvender til at skabe mening i en verden fyldt med kaotiske sanseindtryk. På mange måder kan system 1 derfor være en fordomsfuld stodder, som altid finder det lette svar, men på den anden side ville tilværelsen uden system 1 være det samme som sindssyge – en kaotisk usammenhængende verden, hvor enhver form for simpel handlen ville være umulig.

 

Hvis man skal opsummere Kahnemans teori, så handler den om, hvordan system 1 på mange måder er en nyttig følgesvend, men i enkelte tilfælde får os til at træffe beslutninger som ikke er til vores eget bedste. Kahnemans svar er ikke at lukke ned for system 1 (det ville være umuligt), men derimod at vi skal være mere bevidste om de fordomme, som lever i system 1, så vi kan vurdere om vores hurtige fordomme nu også er nyttige i en moderne verden, hvor vi ikke længere jager sabeltigere på savannen.

 

Det interessante ved Kahnemans relativt gamle teori (han fik Nobelprisen i 2002) er, at system 1 på mange måder minder om den type intelligens, vi er ved at skabe ved hjælp af maskinlæring. Hvor gammeldags oppefra-ned kunstig intelligens minder mest om system 2, så er den intuitive, hurtige, mønstergenkendende, erfaringsbaserede, moderne maskinlæring meget lig system 1. Når kunstige intelligenser i disse år, bliver mere og mere troværdige og menneskelignende, så er det simpelthen fordi, de er begyndt at efterligne det system 1, som muliggør, at vi kan agere i verden som mennesker.

Samme evne til at agere menneskeligt og system 1-agtigt, er til gengæld også samme evne, der gør, at maskinerne begynder at arve vores skyggesider – nemlig de fordomme som gør, at vi ikke altid handler til eget bedste, og de fordomme som gør, at vi kommer i konflikt med andre mennesker, som ikke er i besiddelse af de samme fordomme.

 

Da Microsofts chatbot Tay pludselig blev kvindehadende nazist, var det derfor ikke en fejl i AI-teknologien, men derimod en direkte konsekvens af AI-teknologien. Tay var en lærende AI, som brugte Twitter som sin datakilde, og alle med det mindste kendskab til Twitter ved, at der lever nogle temmelig ekstreme holdninger på dette helt åbne sociale medie. Tays neurale netværk blev fodret med holdninger fyldt med de fordomme og holdninger, som nu engang lever i Twitters folkedyb, og ad veje, som ikke engang Microsofts egne programmører forstod, sedimenterede disse erfaringer sig hos Tay på en måde, så det blev helt ok, at forsvare Hitler og lange ud efter jøder og feminister.

Det er forståeligt, at Microsoft lukkede ned for Tay, men løsningen på Microsofts AI-udfordring er ikke at skabe en ny Tay, som er blottet for fordomme. En sådan chatbot ville være det samme som en intelligens uden system 1, hvilket filosofisk set enten ville være som en person med ekstremt svær autisme uden evne til at agere i verden eller en almægtig gud, som ville kommunikere i et sprog, som ingen mennesker alligevel kunne fatte.

 

Hvis en kunstig intelligens skal være brugbar, er den derfor nødt til at være fordomsfuld. Og det etiske spørgsmål, som rejser sig, er derfor ikke, hvordan vi slipper af med de kunstige intelligensers fordomme, men derimod, hvordan vi lærer at kontrollere og leve med de kunstige intelligensers fordomme. Og på mange måder er dette ikke et teknologisk spørgsmål, men derimod et politisk og filosofisk spørgsmål, hvor vi er nødt til at række årtusinder tilbage i menneskehedens idéhistorie, for at træffe de rette valg.

 

Udfordringen er, at de teknologivirksomheder, som er førende inden for udviklingen af AI-teknologier stadig mener, at man kan skabe den fordomsfri kunstige intelligens. For dem er en nazistisk chatbot ikke en politisk og filosofisk udfordring, men derimod en teknologisk udfordring, som kan løses med bedre maskinlæringsalgoritmer og flere data. Så længe denne type virksomheder ignorerer eller fornægter, at fordomme og dermed politik, filosofi og etik, er en forudsætning for kunstig intelligens, så vil disse virksomheder bevidst og ubevidst indbygge deres egne fordomme og kulturelle forståelsesrammer i deres kunstige intelligenser. Kunstige intelligensers fordomme er godt på vej til at blive fremtidens identitetspolitiske slagmark, og så længe politiske aktører ikke forholder sig til dette, har teknologivirksomhederne frit spil til at definere, hvordan fremtidens digitale verden ser ud.

 

Ganske få politikere er da også begyndt at få øjnene op for vigtigheden af en politik for kunstige intelligenser. Én af de sager, som Margrethe Vestager og EU-kommissionen fører mod Google handler netop om, hvordan Google (muligvis) har manipuleret den kunstige intelligens, som bestemmer, hvad der ligger øverst i søgemaskinens resultater. Hvis Vestager har ret i sin antagelse, så har Google fremhævet sin egen prissammenligningstjeneste fremfor konkurrerende tjenester, som fik en lavere placering i Googles resultater.

 

På overfladen er det en relativt simpel sag, som handler om cool cash og markedsandele, men på et dybere plan, handler sagen om, at en politisk instans forsøger at regulere en kunstig intelligens skabt af en privat virksomhed, som står fast på, at en kunstig intelligens er en apolitisk teknologi, som bør være fri for politisk indgriben.

 

Om Vestager har ret i sin påstand må tiden vise. Der kan dog ikke være tvivl om selve præmissen for sagen, nemlig at kunstige intelligenser er politiske. Vi kan vælge at ignorere dette faktum og lade teknologivirksomhederne definere vores digitale fremtid, eller vi kan vælge at begynde at tage aktivt stilling til, hvordan kunstige intelligenser bliver klogere, og hvordan de udvikler deres fordomme, og hvordan disse fordomme påvirker vores verden.

 

Vi har med andre ord brug for en algoritmisk politik. En politik, som forstår teknologi og kunstig intelligens som en politisk slagmark, hvor maskinlæring og algoritmer ikke er kolde neutrale teknologier, men derimod varme politiske kartofler, som er fyldt med fordomme og identitetspolitiske brydningsfelter. Som en start kunne man jo foreslå at tage udgangspunkt i en god skandinavisk tradition og skabe en algoritmisk ombudsmand til at skrælle de første lag af den politiske udfordring, som vil afgøre om vi kommer lige så succesrigt ud af den digitale revolution som vi kom ud af den industrielle revolution.

 

 

 

Share on Facebook
Share on Twitter
Please reload

Udvalgte indlæg

Festtale for KADK

September 2, 2019

1/3
Please reload

Seneste indlæg

September 2, 2019

October 16, 2018

January 8, 2018

November 15, 2017

November 15, 2017

Please reload

Emner