Wat is Data Poisoning?
Het opzettelijk vervuilen van trainingsdata, zodat een AI-systeem foute patronen leert en verkeerde of schadelijke output gaat produceren.

Wat is data poisoning eigenlijk?
Stel je voor dat je een hond leert zitten door hem elke keer een koekje te geven als hij gaat zitten. Maar wat als iemand stiekem altijd een koekje geeft als de hond juist gaat liggen? Dan leert je hond precies het verkeerde. Data poisoning werkt zo: iemand saboteert bewust de trainingsdata van een AI-model, zodat het systeem foute dingen leert.
AI-modellen leren door patronen te herkennen in enorme hoeveelheden voorbeelddata. Als die data vervuild wordt met verkeerde informatie, leert het model die fouten aan en gaat het ze herhalen. Het verschil met gewone fouten in data: dit gebeurt opzettelijk, met een doel. Bijvoorbeeld om een fraudedetectiesysteem juist fraude te laten missen, of om een chatbot racistische taal te laten gebruiken.
Hoe werkt het in de praktijk?
Data poisoning kan op verschillende manieren gebeuren:
Label flipping: De labels bij trainingsdata worden omgedraaid. Bij een spamfilter worden legitieme mails als spam gemarkeerd en spam als echt, zodat het systeem precies het tegenovergestelde leert.
Backdoors inbouwen: Er worden specifieke triggers in de data verstopt. Bijvoorbeeld: elke foto met een geel vierkant in de hoek wordt als 'veilig' gelabeld, ook al is het iets gevaarlijks. Later kan een aanvaller die trigger gebruiken om het systeem te misleiden.
Data vervuilen via publieke bronnen: Veel AI-modellen leren van publiekelijk beschikbare data (websites, sociale media, forums). Aanvallers kunnen daar bewust verkeerde informatie plaatsen die het model opzuigt.
Het verraderlijke: vaak hoef je maar een klein percentage van de data te vervuilen (soms 1-5%) om het hele model significant te beïnvloeden.
Een voorbeeld uit de praktijk
In 2016 lanceerde Microsoft een chatbot genaamd Tay op Twitter. De bedoeling was dat Tay zou leren praten door conversaties met echte gebruikers. Binnen 24 uur hadden trollen de bot zodanig 'getraind' met racistische en offensive tweets, dat Microsoft Tay offline moest halen. Dit is een vorm van data poisoning: gebruikers voerden bewust verkeerde voorbeelden aan, en de bot leerde precies dat gedrag.
Of neem gezichtsherkenningssystemen: onderzoekers toonden aan dat je met subtiele aanpassingen aan foto's in de trainingsdata een systeem kunt leren dat bepaalde personen systematisch verkeerd identificeert. Dat heeft grote gevolgen voor veiligheid en privacy.
Waarom is dit relevant voor jou?
Als je AI-systemen gebruikt of ontwikkelt, is data poisoning een reëel risico:
Bedrijven die AI trainen op klantdata of publieke bronnen kunnen onbedoeld vervuilde data gebruiken
Veiligheid en betrouwbaarheid van AI-beslissingen staan op het spel — denk aan fraudedetectie, medische diagnoses, of moderatiesystemen
Reputatieschade als jouw AI opeens discriminerende of gevaarlijke dingen zegt of doet
De verdediging? Zorgvuldige datavalidatie, diversiteit in databronnen, regelmatige controle op onverwacht gedrag, en systemen die opvallende patronen in trainingsdata signaleren voordat ze gebruikt worden.
Waar kom je het tegen?
Data poisoning is vooral een zorg bij systemen die:
Leren van gebruikersinput (chatbots, aanbevelingssystemen)
Trainingsdata uit publieke bronnen halen (web scraping, sociale media)
Getraind worden op data van externe partijen zonder grondige validatie
Bedrijven die grote taalmodellen of beeldherkenningssystemen trainen, zoals OpenAI, Google, Anthropic en Meta, besteden veel aandacht aan het filteren en controleren van trainingsdata. Ook in de cybersecurity-wereld is het een bekend aanvalsvector.
Wat kun je ermee?
Bewustzijn is de eerste stap. Als je AI-systemen inzet, vraag dan:
Waar komt de trainingsdata vandaan?
Hoe wordt die data gecontroleerd op kwaliteit en betrouwbaarheid?
Zijn er signaleringssystemen voor abnormaal gedrag van het model?
Als je zelf AI traint: investeer in datavalidatie, gebruik meerdere onafhankelijke bronnen, en test je model regelmatig op onverwacht of schadelijk gedrag. Data poisoning is geen sciencefiction — het gebeurt nu, en het vraagt om bewuste keuzes in hoe we AI bouwen en gebruiken.
Veelgestelde vragen over Data Poisoning
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is Data Poisoning?
Het opzettelijk vervuilen van trainingsdata, zodat een AI-systeem foute patronen leert en verkeerde of schadelijke output gaat produceren.
Waarom is Data Poisoning belangrijk?
Stel je voor dat je een hond leert zitten door hem elke keer een koekje te geven als hij gaat zitten. Maar wat als iemand stiekem altijd een koekje geeft als de hond juist gaat liggen? Dan leert je hond precies het verkeerde. Data poisoning werkt zo: iemand saboteert bewust de trainingsdata van een AI-model, zodat het systeem foute dingen leert.
Hoe wordt Data Poisoning toegepast?
AI-modellen leren door patronen te herkennen in enorme hoeveelheden voorbeelddata. Als die data vervuild wordt met verkeerde informatie, leert het model die fouten aan en gaat het ze herhalen. Het verschil met gewone fouten in data: dit gebeurt opzettelijk, met een doel. Bijvoorbeeld om een fraudedetectiesysteem juist fraude te laten missen, of om een chatbot racistische taal te laten gebruiken.