De AI-verordening bevat een reeks regels die ervoor moeten zorgen dat AI in de EU betrouwbaar is, door specifieke eisen te stellen aan de ontwikkeling en het gebruik van deze systemen. Afhankelijk van het type AI-systeem of de context van gebruik gelden verschillende eisen. AI-toepassingen die aanzienlijke risicos voor mensen met zich meebrengen, zullen verboden worden. Denk hierbij aan systemen die gebruikt worden voor oneerlijke beoordelingen van mensen (zoals social scoring). Voor AI met hoge risicos, zoals in de arbeidsmarkt of financiële sector, worden strikte eisen gesteld. Bij bepaalde AI-toepassingen die interactie hebben met burgers (zoals chatbots) of content genereren of manipuleren (zoals deepfakes), moet duidelijk zijn dat het om AI gaat. Voor AI-toepassingen met weinig of geen risicos zullen geen nieuwe eisen worden gesteld. De meeste AI-systemen die momenteel in Europa worden gebruikt, vallen in deze categorie.
Transparantie en Toezicht
De nieuwe regels zorgen ervoor dat burgers, consumenten, overheden en bedrijven die AI-systemen gebruiken, kunnen vertrouwen op de veiligheid en betrouwbaarheid ervan. Dit biedt ook duidelijkheid voor AI-ontwikkelaars die hun producten op de Europese markt willen brengen. Daarnaast kunnen bedrijven en organisaties in regulatory sandboxes advies en uitleg krijgen van toezichthouders over de verordening, om zo de ontwikkeling en implementatie van AI op een verantwoorde manier te bevorderen. Deze Europese regels zorgen voor een gelijk speelveld, waarbij ook niet-Europese AI-aanbieders moeten voldoen aan dezelfde eisen als zij hun producten en diensten op de Europese markt willen aanbieden.
Minister Beljaarts (Economische Zaken): “We willen de economische kansen van AI benutten en innovatie blijven stimuleren, terwijl we de veiligheid van AI waarborgen. Deze wetgeving sluit aan op de risicos van verschillende AI-systemen, met strenge regels waar nodig en minder beperkingen voor bedrijven die werken met AI-systemen met een laag risico. Ik ben verheugd over deze Europese afspraken die een goede balans bieden tussen kansen en risicos van AI.”
Staatssecretaris Szabó (Digitalisering en Koninkrijksrelaties): “De inwerkingtreding van de AI-verordening is een belangrijke mijlpaal voor de Europese Unie, inclusief Nederland. We streven ernaar AI betrouwbaar te maken en de ontwikkeling van betrouwbare AI bij de overheid te bevorderen. Ontwikkelaars moeten nu bijvoorbeeld de risicos voor fundamentele rechten in kaart brengen en burgers actief informeren over het gebruik van hoog-risico AI-systeem bij besluitvorming die hen raakt.”
Geleidelijke Implementatie
Hoewel de verordening op 1 augustus 2024 in werking is getreden, zullen de verschillende bepalingen gefaseerd van kracht worden. Dit geeft ontwikkelaars van hoog-risico AI-systemen de tijd om te voldoen aan de nieuwe eisen.
- februari 2025: Regels met betrekking tot verboden AI
- augustus 2025: Eisen voor algemeen gebruik van AI
- augustus 2026: Eisen voor hoog-risico AI-toepassingen en transparantieverplichtingen
- augustus 2027: Eisen voor hoog-risico AI-producten: volledige verordening wordt dan van kracht
- augustus 2030: Eisen voor hoog-risico AI-systemen die vóór augustus 2026 door overheidsorganisaties op de markt zijn gebracht
De Europese Commissie zal toezicht houden op grootschalige AI-modellen die voor diverse doeleinden worden gebruikt. Nationale toezichthouders zullen verantwoordelijk zijn voor het handhaven van de eisen voor hoog-risico AI, wat in nationale wetgeving zal worden vastgelegd.