top of page

Tid til at regulere AI

I dag (19. februar) lancerede EU-kommissionen sin strategi for Europas digitale fremtid. Som en del af denne strategi præsenterede man også et whitepaper om AI med fokus på både kapacitet og tillid.

Europa befinder sig i et dilemma. På den ene side er man temmelig langt bagud i forhold til USA og Kina, når det handler om investeringer i AI og i synlige resultater. Og på den anden side er man godt klar over, at uhæmmet frisættelse af AI kan have uheldige resultater, som man allerede ser med massiv teknologisk overvågning i Kina og rovgrisk overvågningskapitalisme, som den udspringer fra Silicon Valley.

Whitepaperet forsøger at få Europa med på AI vognen, men gør det også klart, at en bæredygtig fremtid med AI kræver nye typer af regulering, hvis udviklingen ikke skal løbe af sporet. Og det lykkes faktisk ganske godt!

Den slags whitepapers fra eu-kommissionen er tung legalistisk læsning, og dette lille skriv er derfor ment som, min hurtige læsning af det væsentligste indhold.

I store træk består whitepaperet af to dele. Den første del handler om, hvordan man skal opbygge AI-kapacitet i Europa. En stor del af dette er allerede beskrevet i EU’s tidligere handlingsplan for AI, så det vil jeg ikke spilde din tid med. Kort fortalt handler det om at investere væsentligt flere penge og at opbygge centers of excellence…

Der hvor det bliver virkelig interessant er i spørgsmålet om regulering af AI. Her lægges der op til et nyt regulatorisk regime, som bliver lagt ud til høring frem til den 19. maj 2020.

Der findes allerede lovgivning og direktiver i forhold til databeskyttelse, forbrugerbeskyttelse, produktansvar og så videre, som i mange tilfælde vil være i stand til at beskytte borgere og forbrugere mod uhensigtsmæssig anvendelse af AI. Men Kommissionen påpeger, at AI er en unik teknologi, som rejser en række særlige problemstillinger, som ikke nødvendigvis kan reguleres med eksisterende lovgivning.

Det gode ved kommissionens tilgang er, at man har forståelse for, at AI i nogle sammenhænge kan være helt utrolig ufarligt, mens det i andre tilfælde kan være forbundet med svære etiske dilemmaer med konsekvenser for liv og død.

Man har derfor valgt en såkaldt risikobaseret tilgang, hvor man kun vil regulere i de tilfælde, hvor brugen af AI kan have store konsekvenser.

Skematisk ser den risikobaserede tilgang således ud:

Kunstig intelligens kan blive anvendt i sektorer/brancher, hvor store spørgsmål som liv og død er på spil. Der nævnes som eksempler sundhedssektoren, transportsektoren, energisektoren og dele af den offentlige sektor. Men herudover kan kunstig intelligens også bruges til både risikable og mindre risikable gøremål inden for en bestemt sektor.

Det giver en matrix, hvor man nede til venstre finder de fuldstændig harmløse eksempler på brug af AI. Oppe til venstre anvendes AI til harmløse gøremål i høj-risiko sektorer. Og endelig oppe til højre anvendes AI til høj-risiko gøremål i sektorer, hvor liv og lemmer er på spil.

Pointen er så, at den kommende regulering fra EU-kommissionen kun vil omfatte brug af AI oppe i det højre hjørne af figuren. I de andre – og mindre risikable – situationer anbefaler man, at der etableres en frivillig mærkningsordning, hvor virksomheder og organisationer ikke er omfattet af tilsyn og regulering, men alligevel kan fremhæve, at de er særligt etiske og ordentlige i deres brug af AI.

Og hvad indeholder reguleringen så? Det er ikke endeligt afgjort, men Kommissionen nævner seks væsentlige områder. Men det er netop på dette område, at de lægger op til høringssvar fra offentligheden.

De seks AI-reguleringstiltag

1. Træningsdata

Maskinlæringsalgoritmer bliver trænet på data, og disse data er afgørende for kvaliteten af AI-løsningen. Kommissionen lægger derfor op til, at der bør stilles regulative krav til kvaliteten af data, som anvendes til træning af AI’er. Det betyder blandt andet at kvaliteten af data skal være høj nok til at skabe gode AI-systemer, at data ikke skal være biased og at persondata skal beskyttes.

2. Opbevaring af datasæt

Der lægges op til, at data som er blevet anvendt til at træne AI’er skal gemmes og opbevares, så man senere kan gå tilbage og verificere, hvordan AI’en er blevet trænet. Derudover bør udviklere af AI-systemer dokumentere metoder, processer og teknikker, som har været anvendt til udviklingen af AI-systemet.

3. Tilvejebringelse af information

Borgere og forbrugere bør informeres klart og tydeligt, når de anvender AI (i det røde felt). Det betyder, at de skal informeres om, at de interagerer med en AI og det skal gøres helt tydeligt, hvilke evner og begrænsninger den pågældende AI er i besiddelse af.

4. Robusthed og præcision

Det giver næsten sig selv. AI-systemer bør være stabile og give forståelse og reproducerbare resultater.

5. Menneskelig overvågning

Når der er tale om AI-systemer i det røde felt er det nødvendigt at have mennesker med et sted i loopet. Det kan være mennesker, der tester og validerer et system, før det sættes i brug, eller det kan være, at mennesker skal have adgang til en dødemandsknap, der kan sætte AI’en ud af funktion, hvis noget går galt. Eller det kan være, at der er behov for, at et menneske kaster et endeligt blik på alle vigtige beslutninger, der træffes af AI’en (Skal patienten have kræftbehandling eller ej…).

6. Remote biometric identification (ansigtsgenkendelse mv.)

Der har været rygter om, at kommissionen ville forbyde al ansigtsgenkendelse i fem år, men man er landet på en lidt blødere platform, hvor man gør opmærksom på, at eksisterende databeskyttelsesregler kombineret med charteret for menneskerettigheder allerede beskytter folk mod ansigtsgenkendelse ud over situationer, hvor der er stærke offentlige interesser på spil.

Kommissionen er dog godt klar over, at diskussionen om ansigtsgenkendelse ikke slutter her, og man opfordrer derfor til en bred samfundsmæssig debat om emnet frem mod den 19. maj.

En smule vagt, men måske også hvad der har været politisk muligt indtil videre.

….

Og det var så det… Hvis du vil give din mening til kende over for EU-kommissionen om disse emner, henvises der til denne side: https://ec.europa.eu/info/consultations_en


Udvalgte indlæg
Seneste indlæg
Emner
No tags yet.
Arkiv

Peter Svarre - petersvarre.dk - Nørrebrogade 110A, 1.tv, 2200 København N, tlf: 40409492, mail: peter@petersvarre.dk

bottom of page