Ook het Europese Parlement heeft ingestemd met de AI Act. Daarmee is de Europese wetgeving voor kunstmatige intelligentie een feit. Werkt u met AI-systemen of -toepassingen en/of brengt u ze op de markt? Houd er dan rekening mee dat sommige regels al dit jaar gaan gelden. Een goede voorbereiding is noodzakelijk en daarom zetten we de belangrijkste regels nog een keer op een rij.

AI Act akkoord

De Artificial Intelligence (AI) Act is veelbesproken en zelfs omstreden. De strenge regels zouden volgens sommigen negatieve gevolgen hebben voor Europa en de ontwikkeling van AI, terwijl voor anderen de wetgeving juist niet streng genoeg kan zijn.

De ontwikkelingen rondom AI gaan intussen razendsnel en ook dat bemoeilijkt het opstellen van wetgeving. Zo is de AI Act tussentijds nog een keer aangepast door de opkomst en ongekende populariteit van ChatGPT.

Ondanks alle commotie is de AI Act vorige week aangenomen door het Europese Parlement met 523 stemmen voor, 46 tegen en 49 onthoudingen.

Wat houdt de AI Act in?

De AI Act legt regels op aan het gebruik van AI-systemen en -toepassingen. De Artificial Intelligence Act bevat een risicogebaseerde aanpak en deelt systemen in 4 categorieën in:

  1. onaanvaardbaar risico;

  2. hoog risico;

  3. beperkt risico;

  4. minimaal risico.

Categorie 1: onaanvaardbaar risico

De AI-systemen in de eerste categorie worden verboden. Deze moeten 6 maanden na officiële publicatie van de AI Act (verwacht in mei) van de Europese markt gehaald zijn. Het gaat bijvoorbeeld om:

  • AI-systemen of -toepassingen die menselijk gedrag manipuleren om zo de vrije wil van gebruikers te omzeilen;

  • emotieherkenningssystemen op het werk en in het onderwijs; en

  • biometrische categoriseringssystemen die gebruikmaken van gevoelige kenmerken.

Meer weten over de verboden systemen?

Lees dan hoofdstuk II ‘Verboden praktijken op het gebied van artificiële intelligentie’ van de AI Act vanaf pagina 181 in deze PDF.

Categorie 2: hoog risico

Zijn de risico’s van een AI-systeem hoog? Dan gelden er strenge voorwaarden, waaronder passend menselijk toezicht en een verplicht systeem voor kwaliteitsbeheer. Binnen deze categorie vallen systemen die als risicovol worden gezien en bijvoorbeeld gebruikt worden in het onderwijs, kritieke infrastructuurnetwerken of bij wetshandhaving.

Let op!

Voor gebruikers van AI-systemen met een hoog risico gelden verschillende regels. Zo moeten gebruikers die tevens werkgever zijn, alvorens zij zo’n systeem op de werkplek in gebruik nemen hun werknemersvertegenwoordigers en de betrokken werknemers hiervan op de hoogte stellen. Daarnaast krijgen overheidsinstanties en -organen een registratieverplichting opgelegd. Ook moeten organisaties die gebruikmaken van een AI-systeem met een hoog risico de logs die automatisch worden gegenereerd door dat AI-systeem voor een bepaalde periode bewaren.

Meer weten over de regels voor de systemen in deze categorie?

Lees dan hoofdstuk III ‘AI-systemen met een hoog risico’ van de AI Act vanaf pagina 190 in deze PDF.

Categorie 3 & 4: beperkt en minimaal risico

Het overgrote deel van de AI-systemen zal vallen in de laatste 2 categorieën. Voor dit type systemen gelden transparantieverplichtingen, die de gebruiker duidelijk moeten maken dat het systeem gebruikmaakt van kunstmatige intelligentie.

In de AI Act staat onder meer het volgende te lezen over de transparantieverplichting:

“Aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat de betrokken natuurlijke personen worden geïnformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geïnformeerde en redelijk opmerkzame en omzichtige natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext.’

Meer weten over de transparantieverplichtingen?

Lees dan hoofdstuk IV ‘Transparantieverplichtingen voor aanbieders en operatoren van bepaalde AI-systemen’ uit de AI Act vanaf pagina 282 in deze PDF.

AI-modellen voor algemene doeleinden

Hoofdstuk 5 van de AI Act is gewijd aan AI-modellen voor algemene doeleinden, waartoe ook ChatGPT gerekend wordt. Deze categorie modellen is later aan de AI Act toegevoegd.

Aanbieders van AI-modellen voor algemene doeleinden moeten onder meer:

  • de technische documentatie van het model opstellen en up-to-date houden;

  • informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het AI-model voor algemene doeleinden in hun AI-systemen willen integreren;

  • inzicht geven in de capaciteiten en beperkingen van het AI-model voor algemene doeleinden;

  • beleid opstellen ter naleving van het Unierecht inzake auteursrechten; en

  • een voldoende gedetailleerde samenvatting opstellen en openbaar maken over de voor het trainen van het AI-model voor algemene doeleinden gebruikte inhoud, volgens een door het AI-bureau verstrekt sjabloon.

Toezicht en het Europees AI-bureau

Iedere EU-lidstaat moet op nationaal niveau een toezichthouder aanstellen voor de handhaving van de AI Act.

Daarnaast is er binnen de EU een instantie opgericht voor kunstmatige intelligentie, die de uitvoering van de regels faciliteert en de ontwikkeling van normen voor AI stimuleert. Deze instantie heet het Europees AI-bureau of AI Office.

Het AI-bureau maakt gebruik van zijn expertise om de uitvoering van de AI Act te ondersteunen door onder meer:

  • bij te dragen tot de coherente toepassing van de AI Act in de lidstaten;

  • het opstellen van gedragscodes; en

  • richtlijnen en -snoeren op te stellen die helpen bij de uitvoering van de wet.

Daarnaast zal het AI-bureau ondersteunen bij het bevorderen van betrouwbare AI op de Europese markt.

Boetebeleid AI Act

De boetes voor overtredingen van de AI Act worden vastgesteld als een percentage van de wereldwijde jaaromzet van het overtredende bedrijf in het voorgaande boekjaar of een vooraf bepaald bedrag, afhankelijk van welk bedrag hoger is.

Het gaat om € 35 miljoen of 7% van de jaaromzet voor overtredingen in de categorie verboden AI-toepassingen. Het overtreden van verplichtingen uit de AI Act kan leiden tot boetes van € 15 miljoen of 3% en op het verstrekken van onjuiste informatie staan boetes van € 7,5 miljoen of 1% van de jaaromzet.

Uiteraard wordt er rekening gehouden met de omvang van het overtredende bedrijf als het aankomt op de proportionaliteit van de boetes. Zo gelden voor startende ondernemingen minder hoge boetebedragen.

Inwerkingtreding AI Act

De AI Act treedt in werking op de twintigste dag na die van de bekendmaking ervan in het Publicatieblad van de Europese Unie, naar verwachting dit voorjaar. Twee jaar later gaan alle regels van de AI Act gelden.

Daarop is wel een aantal uitzonderingen geformuleerd. Zo moeten de verboden AI-systemen zes maanden na de inwerkingtreding van de AI Act van de Europese markt zijn gehaald. Aanbieders van AI-modellen voor algemene doeleinden (waaronder ChatGPT) moeten binnen een jaar aan alle regels voldoen.

Ga aan de slag met de AI Act!

Maakt uw organisatie gebruik van AI-systemen of -toepassingen? Achterhaal dan in welke risicocategorie deze vallen en of u acties moet ondernemen om de systemen te mogen blijven gebruiken.

Brengt u zelf AI-systemen of -toepassingen op de markt? Dan is het zaak u zo snel mogelijk te verdiepen in de AI Act en de consequenties voor uw systemen te achterhalen.

Kunt u ondersteuning gebruiken bij de voorbereidingen op de AI Act? Of wilt u weten wat de consequenties van deze wetgeving voor uw organisatie zijn? Neem vrijblijvend contact met ons op via 010 2290 646 of contact@legalz.nl.

Op de hoogte blijven van deze en andere ontwikkelingen?

Abonneert u zich dan op onze maandelijkse nieuwsbrief en ontvang onze blogs automatisch in uw mailbox.