EU levert eerste AI-specifieke wetgeving ter wereld af
De Europese Unie heeft een primeur: Europese wetgevers hebben een akkoord bereikt over de AI-Act (Artificial Intelligence Act). Deze wet om kunstmatige intelligentie (AI) in goede banen te leiden is na intensieve onderhandelingen tot stand gekomen. Wat houdt deze wet in en wat zijn de gevolgen?
De weg ernaartoe
De AI-Act komt niet uit de lucht vallen: al in 2018 begon de Europese Commissie met de voorbereiding. Het proces ging van start met een zogenaamde ‘high-level expert group’, een groep met 52 experts op het onderwerp. In 2020 vloeide hieruit een rapport wat als basis heeft gediend voor de uitgangspunten van de AI-Act. Hierna begon de Commissie met zijn werk wat leidde tot een voorstel in april 2021. Vervolgens hebben de Raad en het Parlement, hun visie met amendementen op het voorstel vastgesteld. Vanaf dat moment konden de drie wetgevers, de Raad, het Parlement en de Commissie onderhandelen over de wetgeving, welke van start gingen in juni. Het huidige nieuws gaat over er een akkoord dat is bereikt in deze triloog van de drie wetgevers.
De inhoud van het akkoord
In het eerder genoemde voorstel van de Commissie werd in 2021 de basis voor de AI-Act gelegd. De AI-Act functioneert als een risico-gebaseerde productregulering, wat betekent dat de wet geldt voor toepassingen van kunstmatige intelligentie. Dit betekent dat wat iemand gaat doen met de technologie bepaalt aan welke wettelijke eisen diegene moet voldoen. Zo kan iemand bijvoorbeeld kunstmatige intelligentie inzetten om te voorspellen hoe snel het gras op zijn gazon gaat groeien. Deze toepassing schendt geen rechten en doet geen inbreuk op de Europese waarden en draagt daarom weinig risico met zich mee. Echter, wanneer een toepassing van AI fundamentele waarden van de EU schendt, zoals democratie of non-discriminatie wordt hier wel risico aan toegekend. De EU onderscheidt vier verschillende categorieën, lage risico’s, beperkt risico’s, hoge risico’s en onacceptabele risico’s. Hoe hoger het risico van de toepassing, hoe zwaarder de categorie waarin die ingedeeld wordt en daarmee hoe strenger de eisen zijn waaraan deze toepassing moet voldoen.
De struikelpunten
Aangezien de wet bepaalt onder welke risico categorie een toepassing van AI valt is hierover onenigheid ontstaan. Zo wilde het Parlement strenger zijn met betrekking tot het gebruik van AI voor gezichtsherkenning door veiligheidsdiensten, terwijl de Raad hierin wat meer ruimte wilde laten. In het uiteindelijke akkoord worden aan gezichtsherkenning strenge eisen gesteld, zo kan het alleen bij bepaalde misdaden en moet een rechter toestemming geven. Daarnaast maakte de risico-gebaseerde benadering het lastig om kunstmatige intelligentie zonder eenduidige toepassing te reguleren. Hierin was vooral onenigheid over de mate van regulering voor ‘foundation models’. Dit zijn grote AI-modellen die voor een grote hoeveelheid en ver uiteenlopende toepassingen gebruikt kunnen worden. Op basis van een foundation model is bijvoorbeeld ChatGPT ontwikkeld. Ook over de mate van eisen die aan dit soort modellen gesteld zouden worden verschilden de wetgevers tijdens de onderhandeling van mening. Beide partijen kwamen tot een compromis, waarbij de grootste spelers op dit gebied moeten voldoen aan eisen rondom bijvoorbeeld transparantie en waar de kleinere partijen uitzonderingen krijgen.
De weg voorwaarts
Met het politieke akkoord tussen de Raad, het Parlement en de Commissie is het Europese wetgevingsproces nog niet afgelopen. Op het moment is men in Brussel nog bezig met het finaliseren van de tekst gebaseerd op de overeenstemmingen bereikt tijdens de onderhandelingen. Daarna moeten het Parlement en de Raad moeten er nog in hun eigen vergaderingen over stemmen. Wanneer het hier goedgekeurd wordt kan het implementatieproces beginnen. De verwachting is dat de regels in 2026 van kracht zullen zijn. Dit geeft bedrijven die gebruik maken van AI-toepassingen de tijd om zich aan te passen aan de nieuwe wetgeving.