Wat is AI Act?
Europese wet die regels stelt aan het gebruik van AI, afhankelijk van hoe risicovol een toepassing is. Vergelijkbaar met hoe de AVG privacyregels opstelde.
Ook bekend als: Act

Wat is de AI Act eigenlijk?
De AI Act is de eerste uitgebreide AI-wet ter wereld, aangenomen door de Europese Unie in 2024. Je kunt het zien als een veiligheidskeuring voor AI-systemen — vergelijkbaar met hoe medicijnen eerst getest moeten worden voordat ze in de apotheek liggen, of hoe speelgoed aan bepaalde normen moet voldoen.
De wet werkt met een risicogebaseerde aanpak: hoe groter het risico dat een AI-toepassing schade aanricht, hoe strenger de eisen. Denk aan een trapsgewijs systeem:
Onacceptabel risico — volledig verboden (bijvoorbeeld social scoring door overheden, of manipulatieve AI die kwetsbare groepen uitbuit)
Hoog risico — mag wel, maar met strikte voorwaarden (bijvoorbeeld AI die medische diagnoses stelt, sollicitanten beoordeelt, of kredietaanvragen behandelt)
Beperkt risico — transparantieplicht (chatbots moeten zeggen dat ze geen mens zijn)
Minimaal risico — geen extra eisen (spam-filters, aanbevelingen voor films)
Het doel? Zorgen dat AI-systemen veilig, transparant en eerlijk zijn — zonder innovatie onmogelijk te maken.
Waar merk jij er iets van?
Als je in Europa een bedrijf runt of AI-tools gebruikt, krijg je vanaf 2025-2027 geleidelijk met de AI Act te maken. De wet wordt in fases ingevoerd.
Voor bedrijven die AI ontwikkelen of verkopen:
Als je hoog-risico AI bouwt (denk aan HR-software die cv's screent, of algoritmes die leningen goedkeuren), moet je kunnen aantonen dat je systeem betrouwbaar is, dat er menselijk toezicht mogelijk is, en dat je documenteert hoe het werkt
Voor chatbots of deepfakes: je moet gebruikers vertellen dat ze met AI te maken hebben
Foundation models (de grote taalmodellen waarop tools als ChatGPT draaien) moeten transparant zijn over hun trainingsdata en energieverbruik
Voor bedrijven die AI gebruiken:
Als je bijvoorbeeld een rekruteringstool inkoopt die cv's sorteert, ben je medeverantwoordelijk — je moet controleren of de leverancier aan de eisen voldoet
Bij klachten of incidenten moet je kunnen uitleggen hoe de AI tot een beslissing kwam
Voor burgers:
Je krijgt recht op uitleg als een AI-systeem een belangrijke beslissing over jou neemt (bijvoorbeeld een afgewezen hypotheek of een niet-uitgenodigde sollicitatie)
Gezichtsherkenning in de openbare ruimte wordt sterk beperkt
Waar kom je het tegen?
De AI Act geldt voor alle AI-systemen die in de EU gebruikt worden — ook als ze buiten de EU ontwikkeld zijn. Denk aan:
HR-software die cv's screent of medewerkers beoordeelt (Workday, SAP SuccessFactors, HireVue)
Kredietbeoordelingssystemen bij banken en verzekeraars
Medische AI voor diagnoses of behandelplannen
Chatbots en klantenservice-AI (ChatGPT, Claude, Copilot — allemaal moeten ze transparant zijn over hun AI-aard)
Biometrische systemen zoals gezichtsherkenning
Sociale media-algoritmes die content aanbevelen
Leveranciers van grote taalmodellen (OpenAI, Anthropic, Google, Meta, Mistral AI) moeten straks allemaal voldoen aan transparantie-eisen over trainingsdata, copyright en risicobeheer.
Praktisch: wat kun je er nu mee?
Als je AI inzet in je organisatie, is het verstandig om nu al te inventariseren welke systemen je gebruikt en in welke risicocategorie ze vallen. Stel jezelf de vraag: neemt deze AI beslissingen die impact hebben op mensen — hun baan, hun gezondheid, hun financiën? Dan is de kans groot dat je straks moet kunnen aantonen dat je systeem eerlijk en transparant werkt.
Voor consumenten geldt: je krijgt meer grip op hoe AI over jou beslist. Blijf kritisch, en vraag om uitleg als een geautomatiseerd systeem iets besluit waar je het niet mee eens bent. De wet staat aan jouw kant.
Veelgestelde vragen over AI Act
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is AI Act?
Europese wet die regels stelt aan het gebruik van AI, afhankelijk van hoe risicovol een toepassing is. Vergelijkbaar met hoe de AVG privacyregels opstelde.
Waarom is AI Act belangrijk?
De AI Act is de eerste uitgebreide AI-wet ter wereld, aangenomen door de Europese Unie in 2024. Je kunt het zien als een veiligheidskeuring voor AI-systemen — vergelijkbaar met hoe medicijnen eerst getest moeten worden voordat ze in de apotheek liggen, of hoe speelgoed aan bepaalde normen moet voldoen.
Hoe wordt AI Act toegepast?
De wet werkt met een risicogebaseerde aanpak: hoe groter het risico dat een AI-toepassing schade aanricht, hoe strenger de eisen. Denk aan een trapsgewijs systeem:
Besproken in artikelen
Waar lees je meer over AI Act op dit platform?

EU AI Act: wat de nieuwe regels voor Nederlandse MKB-bedrijven betekenen
De nieuwe Europese wet legt AI-toepassingen op een weegschaal: van 'mag nooit' tot 'gewoon doen'. Wat valt jouw gebruik onder, en welke stappen moet je zetten?

Kleine AI-modellen: goed genoeg en tien keer goedkoper
Je hoeft niet altijd het zwaarste geschut in te zetten. Steeds meer bedrijven ontdekken dat compacte AI-modellen hun werk prima doen — sneller, goedkoper en dichter bij huis.

AI-kosten onder controle: hoe MKB niet verrast wordt door facturen
Je begint enthousiast met AI-tools, maar drie maanden later krijg je een verrassend hoge factuur. Hoe zorg je ervoor dat je van tevoren weet waar je aan toe bent?