Direct naar inhoud
AI-nieuws

EU AI Act: wat de nieuwe regels voor Nederlandse MKB-bedrijven betekenen

De nieuwe Europese wet legt AI-toepassingen op een weegschaal: van 'mag nooit' tot 'gewoon doen'. Wat valt jouw gebruik onder, en welke stappen moet je zetten?

FD
Frank DuindamFrank Duindam
Frank DuindamOprichter & hoofdredacteur
Bijgewerkt 7 min leestijd
Weegschaal balanceert digitale AI-elementen in paars-mint licht

Je hebt het waarschijnlijk al voorbij zien komen: de EU AI Act, de eerste grote wet die specifiek regelt hoe bedrijven met AI mogen werken. Sinds augustus 2024 is de wet van kracht, en bedrijven krijgen gefaseerd tijd om zich aan te passen. Voor veel MKB'ers roept dat vragen op. Moet ik mijn chatbot aanpassen? Mag ik nog wel CV's scannen met AI? En wat gebeurt er als ik me niet aan die regels houd?

Dit artikel legt uit hoe de wet werkt, waar jouw AI-gebruik waarschijnlijk onder valt, en welke concrete stappen je nu al kunt zetten — ook als je geen jurist in dienst hebt.

De kern: risico bepaalt wat mag

Gelaagde classificatie van AI-risicocategorieën in abstracte vorm

De EU AI Act deelt AI-toepassingen op in vier categorieën, van verboden tot laag-risico. Die indeling is niet gebaseerd op hoe ingewikkeld de technologie is, maar op wat je ermee doet. Een eenvoudige chatbot die CV's screent, kan onder strengere regels vallen dan een geavanceerd neuraal netwerk dat productfoto's genereert.

De vraag die de wet stelt is: hoeveel impact heeft deze AI op mensen? Kan het hun rechten, veiligheid of kansen beïnvloeden? Hoe groter de impact, hoe strikter de eisen.

Categorie 1: Verboden AI-systemen

Een paar toepassingen mag je simpelweg niet meer gebruiken, omdat ze fundamentele rechten schenden. Denk aan:

  • Social scoring door overheden (zoals in China, waar burgers punten krijgen voor gedrag)

  • Manipulatieve AI die kwetsbare groepen bewust misleidt (bijvoorbeeld kinderen verleiden tot onveilig gedrag)

  • Biometrische real-time identificatie op openbare plekken door autoriteiten (zoals live gezichtsherkenning in een winkelstraat), met uitzonderingen voor ernstige criminaliteit

  • Emotieherkenning op scholen of werkplekken (systemen die "lezen" of iemand gestrest of ontevreden is)

Voor de meeste MKB'ers is dit geen probleem — je gebruikt dit soort systemen toch al niet. Maar check wel of je geen externe partij inhuurt die dit soort technieken toepast. Een leverancier die beweert emoties van sollicitanten te kunnen "meten" tijdens videogesprekken? Dat valt waarschijnlijk onder de verboden categorie.

Categorie 2: Hoog-risico AI-systemen

Dit is de categorie waar het voor veel bedrijven interessant wordt. Hoog-risico AI wordt niet verboden, maar moet aan strenge eisen voldoen. Het gaat om systemen die belangrijke beslissingen over mensen nemen, zoals:

  • Werving en selectie: AI die CV's sorteert, sollicitanten rankt of geschiktheid inschat

  • Kredietbeoordeling: systemen die bepalen of iemand een lening krijgt

  • Toegang tot onderwijs: AI die studenten selecteert of prestaties beoordeelt

  • Kritieke infrastructuur: denk aan systemen die waterzuivering of elektriciteit beheren

  • Medische hulpmiddelen: AI die diagnoses stelt of behandelingen voorstelt

Wanneer valt jouw gebruik hieronder? Stel jezelf deze vraag: neemt de AI een beslissing die iemands kansen, rechten of veiligheid direct beïnvloedt? Gebruik je AI om te bepalen wie je uitnodigt voor een gesprek? Dan valt het waarschijnlijk onder hoog-risico. Gebruik je AI om inspiratie op te doen voor vacatureteksten? Dan niet.

Voor hoog-risico systemen gelden eisen zoals:

  • Documentatie: je moet kunnen uitleggen hoe het systeem werkt en welke data je gebruikt

  • Menselijk toezicht: er moet altijd een mens meekijken die de AI-uitkomst kan overrulen

  • Transparantie: gebruikers moeten weten dat ze met AI te maken hebben

  • Nauwkeurigheid en robuustheid: het systeem moet betrouwbaar zijn en je moet dat kunnen aantonen

  • Data-kwaliteit: de trainingsdata mag niet discriminerend of onvolledig zijn

Veel van deze eisen lijken op wat je al kent van de AVG. Het verschil: bij de AVG ging het om privacybescherming, hier gaat het om eerlijkheid en veiligheid.

Categorie 3: Beperkt-risico AI-systemen (transparantieverplichting)

Denk aan chatbots, deepfakes of AI-gegenereerde content. Deze systemen zijn niet verboden en hoeven niet door een keuring, maar je moet wel duidelijk maken dat het om AI gaat.

Voorbeelden:

  • Je zet een chatbot op je website voor klantenservice → vermeld dat het een chatbot is

  • Je maakt productfoto's met AI (zoals met DALL-E of Midjourney) → geef aan dat het AI-gegenereerde afbeeldingen zijn

  • Je gebruikt een deepfake-stem voor een podcast-intro → maak duidelijk dat het kunstmatig is

De gedachte: mensen hebben recht om te weten wanneer ze niet met een echt persoon praten of naar echt materiaal kijken. Geen paniek, je hoeft niet bij elke afbeelding "GEMAAKT MET AI" in hoofdletters te zetten — een korte disclaimer of label volstaat.

Categorie 4: Laag-risico AI-systemen

Dit is verreweg de grootste categorie, en goed nieuws: hier gelden geen extra regels. Voorbeelden:

  • Spamfilters in je mail

  • Aanbevelingen in webshops ("anderen kochten ook...")

  • Automatische transcriptie van vergaderingen

  • AI-tools die teksten herschrijven of samenvattingen maken

Als de AI geen invloed heeft op fundamentele rechten of veiligheid, dan val je gewoon onder de bestaande wetgeving (zoals de AVG voor persoonsgegevens).

Wat moet je nu doen?

Trap symboliseert stappen richting AI-compliance voor MKB

De wet is er, de deadlines komen eraan. Voor hoog-risico systemen geldt een overgangsperiode tot augustus 2026 of 2027 (afhankelijk van het type). Maar ook als je tijd hebt, kun je nu al stappen zetten.

Stap 1: Inventariseer je AI-gebruik

Maak een lijst van álle plekken waar je AI gebruikt. Denk verder dan de voor de hand liggende tools. Zit er AI in je CRM? Gebruikt je boekhoudsoftware machine learning om facturen te categoriseren? Werkt je recruitmentbureau met een CV-scanner?

Noteer per tool:

  • Wat doet het systeem precies?

  • Neemt het beslissingen over mensen?

  • Kun je uitleggen hoe het tot een uitkomst komt?

  • Wie is de leverancier?

Stap 2: Bepaal de risicocategorie

Gebruik de vragen hierboven om in te schatten waar je gebruik onder valt. Bij twijfel: ga uit van de strengere categorie. Een foutje maken omdat je te voorzichtig was, is beter dan een boete omdat je te laks was.

Stap 3: Check je leveranciers

Als je AI-tools inkoopt (bijvoorbeeld recruitment-software of klantenservice-bots), vraag je leverancier dan:

  • Voldoet jullie systeem aan de EU AI Act?

  • Onder welke risicocategorie valt het?

  • Kunnen jullie documentatie leveren over hoe het systeem werkt?

Goede leveranciers zijn hier al mee bezig. Als een partij geen antwoord heeft, overweeg dan alternatieven.

Stap 4: Regel menselijk toezicht

Als je hoog-risico AI gebruikt: zorg dat er altijd iemand meekijkt. Een CV-scanner mag een stapel sollicitanten sorteren, maar de uiteindelijke beslissing wie je uitnodigt, moet een mens nemen. En die persoon moet begrijpen waarom de AI een kandidaat heeft voorgesteld of afgewezen.

Stap 5: Wees transparant

Voeg bij chatbots, gegenereerde content of andere beperkt-risico systemen een heldere melding toe. Dat kan subtiel, maar moet wel duidelijk zijn. Bijvoorbeeld: "Deze chatbot wordt aangestuurd door AI en kan fouten maken. Bij complexe vragen schakelen we een medewerker in."

Stap 6: Documenteer

Maak een simpel document waarin je beschrijft:

  • Welke AI je gebruikt

  • Waarvoor je het inzet

  • Welke data je gebruikt

  • Hoe je zorgt voor toezicht en correctie

  • Hoe je omgaat met klachten of fouten

Dat hoeft geen juridisch dossier van 50 pagina's te zijn. Een helder overzicht van twee A4'tjes kan al genoeg zijn voor een klein bedrijf. Het gaat erom dat je kunt laten zien dat je verantwoord met AI omgaat.

Handhaving: boetes en toezicht

De wet kent stevige boetes, tot 35 miljoen euro of 7% van de wereldwijde omzet voor de zwaarste overtredingen (zoals verboden AI gebruiken). Voor de meeste andere schendingen liggen de boetes lager, maar nog altijd fors genoeg om serieus te nemen.

In Nederland houdt de Autoriteit Persoonsgegevens (AP) toezicht op de AI Act, net zoals bij de AVG. De AP heeft al aangegeven niet meteen met boetes te komen zwaaien, maar wel voorlichting en waarschuwingen te geven. Toch: reken er niet op dat je jarenlang kunt wachten. Naarmate meer bedrijven compliant zijn, neemt de druk toe op achterblijvers.

Klinkt ingewikkeld — is het dat ook?

Eerlijk antwoord: het hangt ervan af. Als je alleen een chatbot op je website hebt en geen AI gebruikt voor personeelsbeslissingen of kredietbeoordelingen, dan valt het mee. Voeg een disclaimer toe, zorg dat je data netjes geregeld is (zoals je bij de AVG ook doet), en je zit goed.

Gebruik je AI voor werving, selectie of andere beslissingen die mensen direct raken? Dan is het inderdaad meer werk. Maar veel van wat de wet vraagt, is ook gewoon verstandig: begrijpen hoe je tools werken, ervoor zorgen dat ze eerlijk en betrouwbaar zijn, en transparant zijn naar je klanten en medewerkers.

Denk aan de AVG-invoering in 2018. Destijds leek het ook overweldigend, maar inmiddels is privacy-by-design gemeengoed. De EU AI Act volgt hetzelfde patroon: nu even investeren in begrip en processen, straks is het onderdeel van hoe je werkt.

Wat kun je morgen al doen?

Begin met de inventarisatie. Maak die lijst van AI-tools en stel jezelf bij elk systeem de vraag: neemt dit beslissingen over mensen, en kan ik uitleggen hoe? Dat geeft je meteen inzicht in waar je aandacht nodig is. En vraag je leveranciers om opheldering — hoe eerder je weet waar je staat, hoe meer tijd je hebt om bij te sturen.

De EU AI Act gaat niet over techneuten die ingewikkelde algoritmes moeten doorgronden. Het gaat over ondernemers die verantwoord met nieuwe technologie willen werken. En dat kun je — stap voor stap.