Het kabinet heeft op 20 april 2026 de uitvoeringswet AI-verordening bekend gemaakt. Daarmee wordt eindelijk duidelijk hoe het toezicht op de Europese AI-verordening in Nederland wordt georganiseerd. De uitvoeringswet is nu nog in consultatie, maar belangrijke delen zijn al van kracht. De toezichtcapaciteit wordt de komende periode verder opgebouwd.
Wij leggen u uit wat er verandert en wat u als organisatie concreet moet doen.
Twee centrale toezichthouders: AP en RDI
Het kabinet kiest voor een hybride model met in totaal 10 markttoezichthouders. De Autoriteit Persoonsgegevens (AP) en de Rijksinspectie Digitale Infrastructuur (RDI) krijgen daarin de centrale rol. Zij coördineren, bouwen kennis op en zorgen voor harmonisatie tussen de sectoren.
De AP wordt specifiek verantwoordelijk voor toezicht op verboden AI-praktijken (zoals manipulatieve AI), transparantieverplichtingen (denk aan herkenbare chatbots en deepfakes) en een groot deel van de hoog-risico AI-toepassingen in werk, onderwijs en overheid.
Voor de RDI staat bij het toezicht op AI een goede balans centraal tussen veiligheid van AI-systemen én ruimte voor innovatie en investeringen. De RDI geeft aan te kiezen voor toezicht dat proactief, risico-gericht en proportioneel is. Een dialoog met het bedrijfsleven en de maatschappij is volgens de RDI daarbij van belang.
Sectorale toezichthouders zoals de AFM en DNB blijven verantwoordelijk voor AI binnen hun eigen domein. U krijgt dus zoveel mogelijk te maken met de toezichthouder die u al kent.
Welke regels gelden al?
Belangrijk om te weten: de uitvoeringswet is nog in consultatie, maar de AI-verordening zelf is al gedeeltelijk van kracht. De regels over verboden AI-toepassingen gelden nu al. Dat betekent dat u al moet voldoen aan de verboden op bijvoorbeeld biometrische classificatiesystemen en manipulatieve AI. Wacht dus niet op de uitvoeringswet.
Wat betekent dit voor uw organisatie?
Voor hoog-risico AI-systemen gelden strenge eisen op het gebied van risicobeheer, datakwaliteit en documentatie. Denk aan AI die wordt ingezet bij sollicitaties, kredietverlening of het toekennen van uitkeringen. Hoe groter het risico dat uw AI-systeem met zich meebrengt, hoe zwaarder de verplichtingen.
Concreet betekent dit dat u nu al aan de slag moet met:
een inventarisatie van de AI-systemen die u gebruikt of ontwikkelt
een risicoclassificatie per systeem vaststellen (verboden, hoog-risico, beperkt, minimaal)
governance en interne processen die aansluiten op de AI-verordening
transparantiemaatregelen richting gebruikers
Een sandbox als steun in de rug
Vanaf 2026 richten de AP en de RDI een AI regulatory sandbox in. Organisaties kunnen daar hun AI-systemen toetsen en begeleiding krijgen van toezichthouders voordat zij live gaan. Dat is een kans die u niet onbenut moet laten, zeker als u werkt aan innovatieve of hoog-risico AI-toepassingen.
Onze conclusie
De publicatie van de uitvoeringswet maakt duidelijk dat AI-toezicht geen toekomstmuziek meer is. De AP en de RDI gaan handhaven, en de verwachting is dat de toezichtcapaciteit de komende periode snel wordt uitgebreid.
Heeft u hulp nodig bij het in kaart brengen van uw AI-systemen, het opstellen van beleid of het aanpassen van uw ICT-contracten aan de AI-verordening?
Neem vrijblijvend contact met ons op.
Klik op onderstaande button of bel ons direct op telefoonnummer 010-2290646.