| |

Susanna Lindroos-Hovinheimo: Hur såg AI-förordningen ut? (Konstitutionell blogg)

EU:s AI-förordning var en lång och grundlig process. Nu är texten klar och vi kan reflektera över hur den blev. Det första jag kan säga är att det visade sig vara en lång tid. Förordningen innehåller 113 artiklar och en artikel är normalt längre än en A4-remsa. För att ange tillämpningsområdet enbart i artikel 2 krävs det 12 punkter i förordningen, varav flera innehåller underpunkter. Ingressen innehåller 180 punkter. Det finns tretton bilagor.

Den första fasen av genomförandet kommer att ske sex månader efter det att förordningen träder i kraft – i höst – så Europa, genom sina teknikjurister, bör börja läsa så snart som möjligt. I slutskedet av förordningen ändrades innehållet inte särskilt mycket, men tillräckligt för att vissa av artiklarna skulle bli obekanta även för experter.

Förordningen syftar till att uppnå en övergripande harmonisering. Genom att välja artikel 114 i EUF-fördraget som rättslig grund överförs genom denna förordning behörigheten att reglera all AI till unionen. Medlemsstaterna kommer inte längre att kunna lagstifta om det som föreskrivs i förordningen, såvida inte förordningen ger uttryckligt nationellt handlingsutrymme. Förordningen lämnar lite av det utspridda över de olika artiklarna.

Under lagstiftningsprocessen var en grundläggande svårighet definitionen av AI, som nu återfinns i artikel 3. Där definieras ett AI-system som:

”ett maskinsystem som är utformat för att fungera med varierande grad av autonomi, som potentiellt kan anpassas efter driftsättning, och som kan producera utdata, såsom förutsägelser, innehåll, rekommendationer eller beslut, baserat på de indata som det tar emot, för att uppnå specifika explicita och implicita mål, som kan påverka verkliga eller virtuella miljöer.”

Definitionen är kopplad till tillämpningen av förordningen i sin helhet. Om det är ett AI-system gäller förordningen, annars inte. Därför kommer det att vara av yttersta vikt vid tolkningen att klargöra vad definitionen innebär. Bestämmelsen lämnar bland annat oklart om regelbaserade system någonsin kommer att omfattas. Med detta i åtanke är artikeln inte den enklaste att skriva. Det kan vara så att den enda term som är lätt att tolka är ”maskin”, och vi ska inte vara så säkra på det heller. I framtiden kommer vi i rättspraxis åtminstone att överväga vilken typ av åtgärder som är autonoma i olika grad, vilken grad av anpassning som är möjlig enligt definitionen och vilka uttryckliga och underförstådda mål som varje system ger upphov till. – För att inte tala om verkliga eller virtuella miljöer… så definitionen blev bred.

Tillämpningsområdet blev ändå brett, men undantag inkluderades också. Forskarna är glada över att ett undantag för vetenskapen inkluderades i förordningen. Förordningen är inte tillämplig på AI-system eller AI-modeller som särskilt utformats och genomförts enbart i syfte att bedriva vetenskaplig forskning och utveckling, och inte heller på deras resultat. Förordningen är inte heller tillämplig när det gäller nationell säkerhet. Denna avgränsning av tillämpningsområdet är vanlig i EU-rätten, men den är mycket tydlig i denna förordning. I artikel 2 i förordningen anges flera gånger med olika ordalydelse att den inte är tillämplig på AI-system som används för militära ändamål, försvarsändamål eller nationella säkerhetsändamål.

Kommissionens ursprungliga idé om ett riskbaserat tillvägagångssätt, vilket innebär att förordningen delar in systemen i tre kategorier: förbjudna, högrisk och övriga, överlevde fram till den slutliga förordningen. Den fjärde kategorin, AI-modeller för allmänna ändamål, skapades under lagstiftningsprocessen. Detta gäller särskilt ChatGPT och liknande system.

Förbjudna system får inte användas i unionen och får inte importeras till unionen. Definitionen är inte lätt att läsa, eftersom systemen är förbjudna under vissa villkor och omständigheter. Enligt artikel 5.1 a i förordningen är det t.ex. förbjudet att

”utsläppande på marknaden, ibruktagande eller användning av ett system för artificiell intelligens som använder subliminala tekniker som inte medvetet uppfattas av en person eller avsiktligt manipulativa eller bedrägliga tekniker som syftar till att förvränga eller väsentligt förvränga en persons eller en grupp av personers beteende och därigenom väsentligt försämra deras förmåga att fatta ett välgrundat beslut och få dem att fatta ett beslut som de annars inte skulle ha fattat, på ett sätt som orsakar eller sannolikt kommer att orsaka väsentlig skada för den personen, en annan person eller en grupp av personer.”

Definitionen är inte välkommen, särskilt eftersom den innehåller begreppen väsentligen snedvrida, väsentligen försämra, sannolikt orsaka och väsentlig skada. Tyvärr är förordningen ett ymnighetshorn av sådana uttryck, som när man läser dem bara kan få en att känna sympati för EG-domstolen. När man läser definitionerna av högriskprogram förstärks känslan av medkänsla. För många system kommer det att vara svårt att bedöma om de utgör en hög risk eller inte enligt förordningen.

Ibland innehåller förordningen också humoristiska passager. Frågan är allvarlig och syftet med regleringen är utan tvekan ädelt. De frågor som står på spel är av samhällelig betydelse och har stor räckvidd. Listan över system med hög risk har dock utökats till att omfatta

”System som är avsedda att användas för att bedöma inlärningsresultat, inklusive där dessa resultat används för att styra inlärningsprocessen för individer i utbildningsinstitutioner på alla nivåer.”

Hur enkelt det än skulle vara att använda AI för att rätta studenters provsvar anser EU att (det är inte förbjudet, men) det finns ansvar och skyldigheter. Man kan bara undra varför detta är en fråga av sådan omfattning att det är nödvändigt att lagstifta på unionsnivå.

På listan över högrisk-system finns även detta system med:

”System som är avsedda att användas för observation av studenter och för att upptäcka förbjudet beteende under examinationer i eller i anslutning till utbildningsinstitutioner.”

I praktiken kan detta innebära att mänskliga ögon även fortsättningsvis kommer att behövas för att övervaka trampningen, såvida inte en utbildningsinstitution vill genomföra det dokumentations- och certifieringsarbete som förordningen kräver för användning av högriskanläggningar.

En liten lättnad för dem som arbetar med system är att man i den slutliga förordningen har lagt till en avgränsningsklausul i artikel 6 utöver definitionerna av högrisk-system. Det anges dock att ett system inte utgör en hög risk om det inte innebär en betydande risk för skada på fysiska personers hälsa, säkerhet eller grundläggande rättigheter, inklusive att det inte väsentligt påverkar resultatet av beslutet, med förbehåll för vissa villkor. Denna artikel är också ganska ogenomskinlig.

Regleringen av högriskprogram grundar sig på att dessa program omfattas av ett antal krav, särskilt när det gäller kvalitetskontroll. En stor del av artiklarna i förordningen rör dessa skyldigheter. De omfattar krav på riskhanteringssystem, datakvalitet, teknisk dokumentation, datalagring, transparens och mänsklig tillsyn. Det finns också andra ansvarsområden, massor av dem.

Ett resultat av förordningen är inrättandet av nya tillsynsmyndigheter. De kommer att inrättas både på EU-nivå och på nationell nivå. Förordningen ger också människor, t.ex. konsumenter, tillgång till rättslig prövning. Enligt artikel 85 har fysiska och juridiska personer som anser att bestämmelserna i förordningen har överträtts rätt att lämna in ett klagomål till en marknadsövervakningsmyndighet. Tillsynsmyndigheterna kommer att stärkas genom möjligheten att utdöma administrativa böter. En intressant detalj finns i artikel 100, som också gör det möjligt att ålägga unionens institutioner, organ och byråer administrativa böter. Böterna är dock relativt små (750 000 eller 1,5 miljoner om unionen använder ett förbjudet system) jämfört med t.ex. de böter som åläggs leverantörer av AI-modeller för allmänna ändamål (3 % av deras totala globala omsättning under föregående räkenskapsår eller 15 miljoner euro, beroende på vilket som är högst).

Förordningen innehåller många intressanta detaljer, av vilka endast en bråkdel presenteras i denna korta översikt. Det står dock klart att detta är en viktig men komplicerad lagstiftning.

Susanna Lindroos-Hovinheimo, professor, Helsingfors universitet

Artikeln är en del av projektet GenerationAI, finansierat av Rådet för strategisk forskning, som studerar regleringen av artificiell intelligens, särskilt ur ett barnrättsperspektiv.

OBS! Denna artikel publicerades ursprungligen som en bloggartikel den 26.3.2024 på Konstitutionsbloggen. Den ursprungliga bloggartikeln finns på: https://perustuslakiblogi.wordpress.com/2024/03/26/susanna-lindroos-hovinheimo-minkalainen-tekoalyasetuksesta-tuli/

Similar Posts

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *