Verdens første AI-lov: Hvad betyder den for dig?

AI Act er et tidligt bud på, hvordan vi kan håndtere blandt andet de etiske problemer med kunstig intelligens nu og i den nære fremtid, skriver Christian Villum, der er teknologirådgiver. 
Europa-Parlamentet stemte i marts for AI-loven Artificial Intelligence Act i Strasbourg. Den forventes at få effekt senere i år. | Foto: Jean-Francois Badias/AP/Ritzau Scanpix
Europa-Parlamentet stemte i marts for AI-loven Artificial Intelligence Act i Strasbourg. Den forventes at få effekt senere i år. | Foto: Jean-Francois Badias/AP/Ritzau Scanpix
AF CHRISTIAN VILLUM, TEKNOLOGIEKSPERT OG -RÅDGIVER

For nylig blev AI Act, verdens første, store lovgivning om AI, stemt igennem i Europa-Parlamentet. 

Efter flere års tovtrækkeri, som pludselig blev til hastebehandling på grund af det store, folkelige gennembrud for AI og dertilhørende problemer, står vi nu med et værktøj, som skal tackle nogle af de store udfordringer, vi står foran i den kunstige intelligens’ tidsalder. 

Men gør det det, og hvad betyder det helt præcist for dig?

Siden ChatGPT blev lanceret i slutningen af året 2022, er det gået stærkt. AI er blevet allemandseje, og det har betydet både store gennembrud for innovation, automatisering og effektivisering, men også store udfordringer for en masse brancher og, på sigt, forventeligt også for en lang række job: roller, som i større eller mindre grad ser ind i en fremtid, hvor de helt eller delvist bliver erstattet af algoritmer. 

Etiske dilemmaer

Udfordringerne stopper dog ikke der. Vi står også foran nogle store etiske dilemmaer, som AI-gennembruddet har bragt helt ind på centrum af spillebanen. 

Det handler bl.a. om bias i den måde, algoritmerne lærer om verden – f.eks. når det gælder racisme, diskrimination og kønsfordomme – som ligger skjult i de enorme mængder data, der er blevet brugt til at træne den kunstige intelligens. 

Maskinerne forstår ikke selv disse problemer, og det kommer til udtryk på meget uheldige måder. Et eksempel på dette er “Gladsaxe-modellen,” som tilbage i 2018 var et planlagt værktøj i Gladsaxe Kommune, der var blandt de første i Skandinavien til at anvende prædiktive risikomodeller (PRM) for at identificere børn med høj risiko for mishandling. 

En folkelig opstand over testresultater, som viste klare bias i algoritmens vurderinger, gjorde, at værktøjet simpelthen blev skrottet. 

Afvist af en bot

Sådanne automatiseringer kan få store konsekvenser for udvalgte befolkningsgrupper, hvis vi lader algoritmerne træffe beslutninger i sagsbehandlinger i både det offentlige, men også i den private erhvervssektor. 

Har vi lyst til at blive afvist i en screening til f.eks. et banklån eller en forsikring uden at kunne få en menneskelig forklaring? 

Udfordringen er således i høj grad den manglende transparens, som en såkaldt black box-teknologi som AI er bygget på. Med black box menes der, at ingen helt kan redegøre for, hvilke ræsonnementer algoritmen laver, når den behandler data for at nå frem til et svar.

Hvordan kan vi håndtere disse problemer nu og i den nære fremtid? Det er AI Act et tidligt bud på. 

Lovgivningen tager fat på disse problemer på en række konkrete måder, som skal gøre det klarere, hvordan AI anvendes i produktet eller servicen, så både myndigheder og vi som forbrugere bedre kan forstå teknologiens anvendelse – og blive beskyttet mod tilfælde, hvor den er blevet anvendt lemfældigt og uansvarligt. 

Tiltag i AI Act

  • Risikobaseret klassificering af AI-systemer: AI-systemer skal fremover klassificeres efter risikoniveau – fra “Minimal” til “Uacceptabel” risiko. Alt efter, hvilken kategori en AI-baseret tjeneste eller app tildeles, vil der være forskellige krav til måden, den udvikles på, og hvordan den lovligt kan anvendes i samfundet.

  • Strengere krav til højrisiko-AI: High-risk AI-systemer, som f.eks. anvendes inden for kritisk infrastruktur, retshåndhævelse eller uddannelse, vil kræve særligt grundige risikovurderinger, og disse skal også opfylde strenge dokumentationskrav.

  • Forbud mod visse anvendelser af AI: Uacceptabel risiko-kategorien indebærer et forbud mod specifikke anvendelser af AI, såsom “realtids biometrisk identifikation i offentlige rum”, hvilket vi i daglig tale kalder for ansigtsgenkendelse, og systemer, der influerer eller manipulerer menneskelig adfærd.

    Særligt denne sidste betegnelse bliver svær at definere. Påvirker eksempelvis sociale medier menneskelig adfærd nok til at klassificere det som høj eller sågar uacceptabel risiko? Det er der sikkert delte meninger om. Men hvis du har set DR-dokumentaren “Alene hjemme på nettet”, hører du måske til den del af befolkningen, som for alvor har fået øjnene op for de utilsigtede psykiske skader, sociale medier potentielt påfører specielt vores yngre generationer.
  • Oprettelse af et nyt europæisk AI-kontor: For at koordinere overholdelse, implementering og håndhævelse af AI-lovgivningen vil der blive oprettet et nyt Europæisk AI-kontor. Dette kontor skal forsøge at skabe retningslinjer og hjælpeværktøjer for virksomheder, der udvikler AI, og dermed forhåbentlig gøre det nemmere at gøre det rigtige.

    Derudover vil kontoret også være den instans, hvor man som borger kan indgive klager over mangelfulde eller uetiske AI-produkter, som man har været i kontakt med.

  • Store bøder for overtrædelser: Virksomheder, der overtræder AI-lovgivningen, kan blive pålagt bøder på op til €30 millioner eller 6 pct. af deres globale omsætning.

Hvad betyder det så for dig og måden, hvorpå du kommer til at mærke, at EU-regionen nu udruller en regulering af kunstig intelligens?

På den korte bane bliver tingene nok ikke så anderledes, for det kommer til at tage tid at implementere og håndhæve lovgivningen. Forventeligt op til et par år. Men det må forventes, at alle AI-udviklerne, herunder de store amerikanske og kinesiske big tech-virksomheder, allerede nu begynder at skære deres ydelser til, så de lever op til kravene, når de træder i kraft.

Det bliver således en glidende overgang, vi borgere kommer til at opleve fra det lovløse AI Wild West til den mere strukturerede AI-virkelighed, vi forhåbentlig er på vej i mod. 

Hvad betyder det for dig?

  • Øget beskyttelse af grundlæggende rettigheder: Med krav om vurdering af AI-systemers påvirkning på fundamentale rettigheder sigter lovgivningen mod at beskytte borgernes rettigheder i forbindelse med eksempelvis forsikring, bankvirksomhed og andre kritiske tjenester.

  • Mulighed for at klage over AI-systemer: Borgere vil, som nævnt ovenfor, have mulighed for at indgive klager over AI-systemer og få forklaringer på, hvordan AI-systemer træffer beslutninger, der påvirker dem.

  • Transparens og ansvarlighed: Højrisiko-AI-systemer skal opfylde strenge krav til gennemsigtighed og nøjagtighed af data, hvilket giver borgere større sikkerhed og klarhed omkring anvendelsen af AI.

  • Beskyttelse mod overvågning og manipulering: Forbud mod visse anvendelser af AI, såsom emotionel genkendelse på arbejdspladsen eller i skoler og såkaldt prædiktiv politiarbejde, f.eks. præventive anholdelser, beskytter borgere mod overvågning og ubevidst manipulation.

Er det så nok? Nej, det er det ikke. Den parlamentariske proces, hvormed AI Act blev forhandlet på plads, var en åben kampplads for lobbyister, bl.a. fra big tech-virksomhederne, hvilket har udvandet det oprindelige lovforslag. 

Resultatet var, at man i processen måtte reducere sikkerhedsforpligtelser for virksomhederne og tilsidelægge store dele af de menneskerettigheds- og antidiskriminationsbekymringer, som mange NGO’er fremlagde. 

Eksempelvis blev definitionen af, hvad der kan klassificeres som AI-systemer, indsnævret, hvilket begrænser antallet af systemer, der vil blive underlagt nøje granskning som følge af lovgivningen.

Masser af gråzoner

I det hele taget bliver AI Act svær og tung at implementere. Eksempelvis venter der et enormt arbejde med at risikovurdere samtlige AI-baserede servicer og produkter i hele Europa. 

Der vil også være en masse gråzoner, hvor klassificeringen afhænger af øjnene, der ser, og mange virksomheder, specielt de store, vil forventeligt bruge stor mængder ressourcer (læs: advokatbistand) til at påvirke klassificeringen i en for dem favorabel retning.

Der er også bekymring for det faktum, at europæiske virksomheder med denne lovgivning står med en konkurrencemæssig ulempe i forhold til konkurrenter med adresse i eksempelvis USA eller Asien. 

Selvom lovgivningen indfører strengere regler, er målet for EU-Kommissionen også at sikre Europas konkurrenceevne og teknologiske suverænitet uden at kvæle innovation. 

Der er derfor sideløbende skudt gang i indsatser for at balancere regulering med støtte til innovation inden for AI, eksempelvis i form af økonomiske programmer, som AI-virksomheder kan søge finansiel støtte fra.

Ambitiøs regulering er nødvendig

Meget afhænger dog af, i hvor høj grad regeringerne i resten af verden vælger at følge trop – eller ej – med lignende initiativer. Om de bliver inspireret af EU’s frontløberarbejde, ligesom vi har set med eksempelvis GDPR-lovgivningen, der beskytter forbrugeres datarettigheder. 

Denne lov har ført GDPR-lignende lovgivning i flere amerikanske delstater, f.eks. Californien, og man kunne håbe, at AI Act giver anledning til selvransagelse i specielt USA, hvor de fleste store AI-udviklende virksomheder, såsom OpenAI, Google, Apple og Amazon, har hjemme. Om det er tilfældet, vil tiden vise.

Indtil da må vi glædes over, at vi bor i en del af verden, hvor der i det mindste er politisk konsensus om, at teknologisk innovation skal gå hånd i hånd med ambitiøs regulering, således at fremtiden er tryg for alle borgere, høj som lav. 

Uagtet hvor langt AI Act bringer os mod dette ideal, så er vi i det mindste i gang.

Del artikel

Tilmeld dig vores nyhedsbrev

Vær på forkant med udviklingen. Få den nyeste viden fra branchen med vores nyhedsbrev.

Forsiden lige nu

Læs også