Voorlopig politiek akkoord EU over voorgestelde AI regelgeving (AI Act)

Gepubliceerd op: 10 december 2023

In april 2021 heeft de Europese Commissie een voorstel gepubliceerd voor een AI-verordening. Dit was wereldwijd het eerste voorstel voor een allesomvattende horizontale regulering van Artificiële Intelligentie (AI). Op 8 december 2023 heeft de EU (Europees Parlement, Lidstaten en Europese Commissie) een akkoord bereikt over de inhoud van de Europese AI Act.

Wat betekent de AI Act?

De AI Act biedt kansen voor ontwikkelaars en ondernemers én waarborgen voor Europese burgers. In het akkoord zijn onder meer basisafspraken gemaakt over de werking van AI in producten en diensten, worden er eisen gesteld aan mogelijk risicovolle toepassingen en vindt er ondersteuning van ontwikkelaars plaats om binnen deze kaders producten en diensten te ontwikkelen. Dit geeft AI in Europa en Nederland een belangrijke impuls gericht op economische kansen én publieke waarden.

De AI Act stelt verschillende eisen aan verschillende categorieën van AI. In totaal zijn er vijf categorieën vastgesteld, elk met eigen eisen. In het akkoord zijn afspraken gemaakt over wat hoog-risicovolle toepassingen zijn en aan welke eisen deze moeten voldoen. Daarnaast zijn sommige toepassingen straks verboden, denk aan manipulerende technieken gericht op kwetsbare groepen (bijvoorbeeld kinderen). Ook moet bijvoorbeeld helder zijn wanneer je communiceert met een AI-toepassing (chatbot). Voor AI-systemen met weinig risico hoeft men niet aan extra eisen te voldoen. Voor de echt grote (systeem) AI-modellen komen aparte eisen en Europees toezicht.

Voor wie heeft de AI Act gevolgen?

Vanuit het perspectief van burgers betekent het dat AI-systemen die in Europa worden aangeboden vertrouwenswaardig zijn en worden risicovolle producten waar AI is ingebed veiliger om te gebruiken. Daarnaast zijn de partijen die AI toepassen aan regels gebonden om risico’s te voorkomen.

Voor bedrijven komt er duidelijkheid. Als de AI Act in werking treedt, kunnen bedrijven die AI inzetten in hoog-risico categorieën er ook voor die toepassing vanuit gaan dat die door toetsing aan de Europese normen verantwoord en kwalitatief is. Voor bedrijven die hoog-risico AI ontwikkelen, is het duidelijk aan welke eisen (normen) het AI-systeem moet voldoen. Aan standaardisatie-organisaties is gevraagd om met een concrete technische uitwerking te komen voor deze normen. Met als doel dat betrouwbare AI-producten op de hele Europese markt kunnen worden verkocht. Toezicht moet ervoor zorgen dat AI systemen die niet aan de eisen voldoen van de markt af gaan en dat hiervoor boetes aan aanbieders kunnen worden opgelegd.

Inzet van regulatory sandboxes

Er wordt ingezet op een zogenaamde AI regulatory sandbox. Dit betreft een gecontroleerde omgeving waarin ontwikkelaars niet alleen kunnen experimenteren met innovatieve AI-producten en -diensten, maar ook kennis kunnen opdoen welke wetgevende kaders van toepassing zijn en hoe deze moeten worden toegepast. De toezichthouder is hier nauw bij betrokken en zal feedback moeten geven aan de ontwikkelaar. Deze kan dan de AI-toepassing al in de ontwikkelfase aan de normen laten voldoen. Dit bevordert de ontwikkeling van Europese innovatieve AI-toepassingen en is van cruciaal belang om de concurrentiepositie van ondernemers en organisaties in Nederland en Europa te stimuleren en om maatschappelijke uitdagingen te kunnen aanpakken met AI.

Ondersteuning vanuit de Nederlandse AI Coalitie

Kees van der Klauw, Coalitiemanager NL AIC: ”AI ontwikkelt zich als systeemtechnologie razendsnel en heeft grote maatschappelijke en economische gevolgen. Als NL AIC ondersteunen we het EU akkoord en zien we de AI Act niet alleen als een bescherming tegen mogelijke onverantwoorde toepassingen van AI, maar ook als een kans om als Nederland en Europa met sterke AI-toepassingen te komen die juist invulling geven aan verantwoorde en mensgerichte AI. Maar daarvoor moeten we wel snel en in samenwerking aan de slag”.

“De sandboxes zijn hierbij het middel om AI-toepassingen te ontwikkelen die by design aan de wettelijke kaders voldoen en snel kunnen worden opgeschaald. Deze sandboxes zullen dan laagdrempelig en praktisch bruikbaar moeten zijn voor bedrijven en in het bijzonder startups/scale-ups. De NL AIC denkt graag mee over de praktische kaders voor een AI regulatory sandbox”, aldus Kees van der Klauw.

Hoe kunt u zich als ondernemer of organisatie voorbereiden op deze AI Act? De NL AIC vindt het belangrijk dat het bedrijfsleven en andere organisaties zich goed kunnen voorbereiden op dit complexe thema. De snelle ontwikkeling van AI in combinatie met de stand van zaken rond de AI-verordening levert vele vragen op.

De NL AIC gaat haar deelnemende organisaties wegwijs maken in de Europese AI Act en de daarmee samenhangende wet- en regelgeving en hun toepassing. Dit betekent het delen van best practices, ervaringen en inzichten. En niet alleen met betrekking tot de AI Act, maar ook tot de overige digitaliseringsregelgeving uit Europa. De AI Act kan niet los worden gezien van de AVG, de Data Act, de Data Governance Act en de Cyber Resilience Act.

Hoe ziet het vervolg eruit?

Het akkoord moet nog formeel worden goedgekeurd door het Europees Parlement. De wet treedt twee jaar na publicatie in werking. Sommige onderdelen al een jaar eerder.

Meer informatie

Als Nederlandse AI Coalitie houden we u in de toekomst graag op de hoogte van de ontwikkelingen rond de AI Act. Lees het nieuwsbericht van de Rijksoverheid of het nieuwsbericht vanuit de EU voor meer informatie. Raadpleeg het Europese Q&A-overzicht of bezoek de pagina van de werkgroep Mensgerichte AI.

Delen via: