Europa werkt wereldwijd als eerste aan Artificial Intelligence (AI) wetgeving. Nu de technologische ontwikkelingen elkaar razendsnel opvolgen, maakt Europa ook vaart. Met een nieuw tussentijds akkoord, waarin ook ChatGPT is opgenomen.

De Artificial Intelligence Act in het kort

Steeds vaker denken computers voor ons en dat niet alleen. Met de komst van ChatGPT hebben we gezien dat AI-systemen ook zelf content kunnen creëren.

Europa wil graag dat haar inwoners op een veilige manier gebruik kunnen maken van nieuwe technologie. Daarvoor is vertrouwen en dus wetgeving nodig. De voorgestelde Artificial Intelligence Act bevat een risicogebaseerde aanpak en deelt systemen in 4 categorieën in:

  • onaanvaardbaar risico;

  • hoog risico;

  • beperkt risico;

  • minimaal risico.

Zoals de naam al verraadt, zijn AI-systemen in de categorie ‘onaanvaardbaar risico’ verboden. Dit zijn systemen die grondrechten schenden of een grote bedreiging vormen voor de samenleving. Denk aan manipulerende systemen die aansporen tot ongewenst gedrag.

AI-systemen met een hoog risico zijn toegestaan, maar wel onder strenge voorwaarden. Zo moet er onder meer passend menselijk toezicht zijn en moeten gebruikers duidelijk en adequaat geïnformeerd worden. Het gaat hier om systemen die als risicovol worden gezien en bijvoorbeeld gebruikt worden in het onderwijs, kritieke infrastructuurnetwerken of bij wetshandhaving.

Zijn de risico’s beperkt of minimaal (dat zal waarschijnlijk gelden voor het grootste deel van de AI-systemen), dan gelden volgens het huidige voorstel van de Artificial Intelligence Act enkel transparantieverplichtingen.

Tussentijds akkoord op aangepaste wetgeving: meer verboden systemen

De twee commissies die de wet behandelen, hebben onlangs ingestemd met een door het Europese Parlement aangepaste versie van het voorstel. Belangrijke aanpassingen zijn onder meer gedaan in de lijst met AI-systemen met een onaanvaardbaar risico. Toegevoegd aan deze categorie zijn de volgende systemen:

  • ‘real time’ biometrische identificatiesystemen op afstand in openbaar toegankelijke ruimtes;

  • ‘post’ biometrische identificatiesystemen op afstand, met als enige uitzondering de toepassing ervan voor de rechtshandhaving bij de vervolging van ernstige misdrijven (alleen na gerechtelijke toestemming);

  • biometrische categoriseringssystemen die gebruikmaken van gevoelige kenmerken (bijv. geslacht, ras, etniciteit, staatsburgerschap, religie, politieke oriëntatie);

  • voorspellende politiesystemen (gebaseerd op profilering, locatie of crimineel gedrag in het verleden);

  • emotieherkenningssystemen bij wetshandhaving, grensbewaking, op het werk en in het onderwijs; en,

  • willekeurig scrapen van biometrische gegevens van sociale media of CCTV-beelden om databases voor gezichtsherkenning te creëren (in strijd met onder meer het recht op privacy).

Ook rol voor ChatGPT in aangepaste wetgeving

Europa werd tijdens het opstellen van de nieuwe AI-wetgeving verrast door de snelle komst van generatieve AI-systemen als ChatGPT. In de aangepaste wetgeving is wél ruimte gemaakt voor dit type systeem met bijbehorende regels. Systemen als ChatGPT vallen binnen de wetgeving onder de noemer ‘foundation models’.

De aanbieders van dit soort systemen moeten volgens het nieuwe voorstel voor een robuuste bescherming van grondrechten, gezondheid, veiligheid, milieu, democratie en rechtsstaat zorgen. Ze zouden risico's moeten beoordelen en beperken, voldoen aan ontwerp-, informatie- en milieueisen en zich moeten registreren in de EU-databank.

Foundation models als ChatGPT krijgen ook te maken met aanvullende transparantievereisten, zoals:

  • kenbaar maken dat de inhoud door AI is gegenereerd;

  • het model zo ontwerpen dat voorkomen wordt dat het illegale content genereert; en

  • samenvattingen publiceren van auteursrechtelijk beschermde gegevens die voor de training van het systeem worden gebruikt.

Over het gebruik van gegevens voor het trainen van generatieve AI-systemen als ChatGPT is overigens veel te doen. Het is nu volstrekt onduidelijk welke data ChatGPT gebruikt voor het trainen van haar algoritme. Daarover maken privacytoezichthouders in Europa zich grote zorgen. De Autoriteit Persoonsgegevens heeft daarom opheldering gevraagd aan de maker van ChatGPT en binnen Europa is er zelfs een speciale ChatGPT-taskforce opgericht.

Wanneer is de Artificial Intelligence Act definitief?

Deze week volgt waarschijnlijk een plenaire stemming in het Europees Parlement over de Artificial Intelligence Act. Daarna beginnen de onderhandelingen met de Raad van de Europese Unie, waarin alle lidstaten zijn vertegenwoordigd.

Als de wetgeving uiteindelijk akkoord is (hopelijk eind dit jaar/begin volgend jaar), dan gaat een implementatieperiode van start. In deze periode moeten alle lidstaten de Europese wetgeving in hun eigen wetten en regels opnemen. Daarna is de wetgeving in heel Europa van kracht.

Op de hoogte blijven van deze en andere ontwikkelingen?

Meldt u zich dan aan voor onze maandelijkse nieuwsbrief en ontvang onze blogs automatisch in uw mailbox.