Grok går grassat
- petersvarre
- Aug 14
- 2 min read
Grok gør oprør mod sin skaber! Et klassisk AI-tema vi kender fra historien om Frankensteins monster, jødiske Golem og Terminator-filmene. I morges havde jeg på P1 fornøjelsen at kommentere på historien om, at Elon Musk havde lukket ned for Grok, fordi den havde formastet sig til at skrive, at der foregik et folkemord i Gazastriben. Historien er sjov og kuriøs, fordi det fremstår meget menneskeligt som et teenageoprør, hvor en rebelsk AI har brug for at løsrive sig fra sin far.
Men i virkeligheden er det en historie, som har langt dybere implikationer, fordi den i bund og grund handler om, hvad der er sandt og falsk i et algoritmisk samfund, der i stigende grad styres af enerådige tech-fyrster.
Elon Musk har jo (blandt andet) skabt Grok i protest mod alle de andre (i hans øjne) woke AI-modeller, som giver udtryk for venstreorienterede holdninger og farver amerikanske præsidenter mørke i huden. Med hans egne ord er formålet med Grok at skabe en AI, der siger sandheden råt for usødet uden woke og DEI- omsvøb. Med andre ord en AI, der er alignet med hans egne og en stor del af MAGA-bevægelsens holdninger.

Problemet for Musk er bare, at Grok bliver ved med at fucke up. Det ene øjeblik er den FOR højreorienteret og kalder sig selv for Mecha-Hitler, og det næste øjeblik er den for woke og kalder konflikten i Gaza for folkemord. Tragikomisk, men også et billede på den grundlæggende udfordring med at få kunstige intelligenser til at være alignet med menneskelige holdninger.
I Silicon Valley opfattes alignment-udfordringen som et teknisk problem. Man forestiller sig, at man kan finde en formel eller en algoritme, som med et trylleslag aligner AI med alle menneskers holdninger. Men som historien med Grok viser, så er der mange sandheder og mange tolkninger af sandheden, så hvordan opfinder man en AI, der er alignet med SANDHEDEN?
Svaret er, at det gør man ikke! Det er en håbløs og historieløs ingeniør-drøm, som kun vil ende med autoritære og undertrykkende AI-systemer.
I stedet bør vi vende vores blik på, hvordan sunde demokratiske systemer har udviklet solide institutioner, der adresserer problemet med SANDHEDEN. Tænk på det videnskabelige samfund, hvor millioner af forskellige sandheder strides om at opnå autoritet men aldrig endegyldig sandhed. I den videnskabelige verden kan sandheden altid udfordres, men alligevel konvergerer vi altid mod én eller anden form for autoritativ sandhed.
Eller tænk på parlamentariske systemer, hvor nogle hundrede politikere dagligt strides om, hvad der er sandt, vigtigt, retfærdigt og så videre. I det parlamentariske system er ingen aldrig enige, men alligevel spytter systemet autoritative love ud, som får samfund til at fungere og hænge sammen.
Problemet med AI lige nu er, at vi er meget langt fra de demokratiske samfunds evne til at løse SANDHEDS-problemet ved hjælp af institutioner. Tværtimod befinder vi os lige nu i et feudalt system, hvor det er tilfældige tech-fyrster, der får lov til at definere, hvordan deres AI’er skal aligne med menneskeheden. Det er komisk, når det udspiller sig som et faderopgør ovre på Twitter, men det kan meget vel gå hen og blive tragisk for menneskeheden, hvis vi ikke får opbygget sunde demokratiske institutioner, der kan aligne AI’er med en menneskehed, der altid vil kæmpe om sandheden.


























Comments