Onlangs is de GPAI Code of Practice on Generative AI gepubliceerd. Deze gedragscode is het resultaat van een multilaterale samenwerking tussen onder meer de Europese Unie, Canada, Japan, het Verenigd Koninkrijk en de Verenigde Staten, en werd in juni gepubliceerd onder coördinatie van het Global Partnership on Artificial Intelligence (GPAI). Het doel is het bevorderen van verantwoord gebruik van generatieve AI via vrijwillige, maar richtinggevende standaarden.

De code is gestructureerd rond drie inhoudelijke pijlers: transparantie, auteursrecht en veiligheid & beveiliging. Elk hoofdstuk is afzonderlijk opgesteld door een werkgroep van juridische en technische experts.

1. Transparantie

Het eerste hoofdstuk richt zich op transparantie gedurende de hele levenscyclus van een generatief AI-systeem. Het gaat hierbij om meer dan alleen het kenbaar maken dat content door AI is gegenereerd. Het hoofdstuk is bedoeld om naleving van artikel 53(1) (a) en (b) van de AI Act te ondersteunen, m.b.t. documentatieverplichtingen.

Om transparantie effectief te waarborgen, worden onder meer de volgende maatregelen aanbevolen:

  • Het beschikbaar stellen van technische documentatie via toegankelijke formats, zoals het voorgestelde Model Documentation Form.

  • Het voorzien in voldoende informatie, zodat zowel toezichthouders als afnemers het model verantwoord kunnen gebruiken en integreren.

Deze aanpak ondersteunt accountability en gebruikersautonomie, en sluit aan bij Europese kaders zoals de AI Act en de AVG. Bekijk hier de Transparency chapter (PDF).

2. Auteursrecht

Het tweede hoofdstuk adresseert het spanningsveld tussen innovatie en bescherming van intellectueel eigendom. De gedragscode erkent dat veel generatieve AI-modellen worden getraind op datasets die (mogelijk) auteursrechtelijk beschermd materiaal bevatten. Om naleving van artikel 53(1)(c) van de AI Act te ondersteunen worden aanbieders geadviseerd om:

  • een duidelijke en actuele copyright policy op te stellen;

  • gebruikers te informeren over het toegestane gebruik van gegenereerde output;

  • en mechanismen te bieden waarmee rechthebbenden klachten kunnen indienen of bezwaren kunnen uiten.

De code doet geen uitspraak over de juridische status van AI-output, maar benadrukt het belang van zorgvuldige omgang met het auteursrecht en het anticiperen op toekomstige wetgeving. Bekijk hier de Copyright chapter (PDF).

3. Veiligheid en beveiliging

Het derde hoofdstuk is gericht op het voorkomen van schade en misbruik. Onder safety valt het tegengaan van schadelijke of foutieve output, zoals hallucinerende teksten of discriminerende inhoud. Security richt zich op het voorkomen van misbruik, zoals het genereren van deepfakes of gevaarlijke instructies.

De aanbevelingen omvatten onder meer:

  • het uitvoeren van risicoanalyses;

  • implementatie van output filters, detectie van schadelijke prompts;

  • monitoring van gebruik na de marktintroductie,

  • meldprocedures bij incidenten.

De focus ligt op proactieve risicobeheersing: voorkomen in plaats van reageren. Bekijk hier de Safety and Security chapter (PDF).

Juridische relevantie

De Europese Commissie en de AI-raad hebben bevestigd dat de GPAI-praktijkcode een passend vrijwillig instrument is voor aanbieders van GPAI-modellen om naleving van de AI-verordening aan te tonen. Hoewel de gedragscode vrijwillig is, heeft naleving van de code zeker voordelen. De Europese Commissie heeft namelijk aangegeven dat als aanbieders zich houden aan de code dat het Europese AI bureau en de nationale toezichtinstanties het zullen behandelen als een vereenvoudigd nalevingstraject. Dat betekent dat handhaving in beginsel kan bestaan uit een toetsing aan de verplichtingen uit de gedragscode, in plaats van een volledige audit van het AI-systeem.

Deze aanpak vergemakkelijkt en versnelt de handhaving aanzienlijk. Het daadwerkelijke effect van de gedragscode zal echter in belangrijke mate afhangen van de mate waarin bedrijven bereid zijn de code te onderschrijven en daadwerkelijk toe te passen.

Conclusie

De GPAI Code of Practice biedt een gestructureerde en internationaal gedragen benadering van drie cruciale thema’s binnen het AI-recht: transparantie, auteursrecht en veiligheid. Hoewel zij niet afdwingbaar is, vormt zij een nuttig instrument voor organisaties die anticiperen op strengere regelgeving en tegelijkertijd maatschappelijk verantwoord willen innoveren.

Meer weten over de AI Act?

Lees dan onze blogs:

AI-geletterdheid: wat houdt het eigenlijk in?

AI Act in werking getreden: de tijdlijn én het stappenplan om eraan te voldoen

Transparantieverplichtingen AI Act uitgelegd

De Europese AI Act is een feit én dit zijn de regels


Zeker weten dat u niks mist?

Abonneert u zich dan op onze maandelijkse nieuwsbrief en ontvang onze blogs automatisch in uw mailbox.