Wat is Overfitting?
Als een AI-model de trainingsdata letterlijk uit het hoofd leert in plaats van algemene patronen te herkennen — waardoor het slecht presteert op nieuwe, onbekende situaties.

Wat is overfitting eigenlijk?
Stel je voor dat je een kind leert herkennen wanneer het gaat regenen. Je laat tien foto's zien van bewolkte luchten, en op al die foto's staat toevallig ook een rode auto. Het kind concludeert: "Als er een rode auto is, gaat het regenen." Dat is overfitting — het kind heeft de voorbeelden letterlijk onthouden in plaats van het échte patroon (bewolking) te leren.
Hetzelfde gebeurt met AI-modellen. Tijdens de training krijgt een model voorbeelden te zien om patronen te herkennen. Maar soms gaat het mis: in plaats van algemene regels te leren, onthoudt het model de specifieke trainingsvoorbeelden tot in detail. Het leert alle toevalligheden, ruis en uitzonderingen mee — en dat maakt het juist slechter in het herkennen van nieuwe situaties.
Hoe herken je het?
Een model met overfitting scoort fantastisch op de data waarop het getraind is — vaak 95% of zelfs 100% correct. Maar zodra je het looslaat op nieuwe, onbekende data, zakt de prestatie ineen. Dat is het verraad van overfitting: schijnbare perfectie die verdampt zodra de omstandigheden iets veranderen.
Denk aan een student die examenvragen uit eerdere jaren letterlijk uit het hoofd leert. Op exact dezelfde vragen scoort hij perfect, maar als de docent de vragen iets herformuleert, snapt hij er niks meer van. Hij heeft de antwoorden gememoriseerd, niet de lesstof begrepen.
Een voorbeeld uit de praktijk
Een bank wil frauduleuze transacties herkennen en traint een AI-model op duizend voorbeelden. Het model leert niet alleen de échte fraudepatronen (zoals ongebruikelijke bedragen of locaties), maar ook toevallige details: bijvoorbeeld dat veel fraudezaken in de trainingdata op dinsdag plaatsvonden, of dat een bepaalde winkel toevallig vaak in de voorbeelden voorkwam.
Resultaat: het model denkt dat dinsdagen verdacht zijn en blokkeert legitieme transacties bij die specifieke winkel. Op de trainingsdata ziet het er goed uit, maar in de echte wereld gaat het mis — klanten worden gefrustreerd geblokkeerd en échte fraude wordt gemist omdat die op woensdag gebeurt.
Hoe voorkom je overfitting?
De kunst is om een model juist complex genoeg te maken — niet te simpel (dan leert het niks), maar ook niet té complex (dan onthoudt het alles).
Veel voorkomende aanpakken:
Meer trainingsdata verzamelen — hoe meer variatie in de voorbeelden, hoe moeilijker het wordt om alles letterlijk te onthouden
Regularisatie — een techniek die het model straft voor te complexe patronen, waardoor het simpeler blijft
Dropout — tijdens training willekeurig neuronen uitschakelen, zodat het model niet op specifieke combinaties gaat leunen
Early stopping — stoppen met trainen zodra de prestatie op nieuwe data niet meer verbetert, ook al zou het model nog beter kunnen worden op de trainingsdata
Cross-validatie — het model testen op verschillende sets data om te checken of het echt generaliseert
Waar kom je het tegen?
Overfitting is een universeel risico bij vrijwel elk AI-systeem dat leert van data:
Bij het trainen van chatbots en taalmodellen (ChatGPT, Claude, Gemini)
In beeldherkenningssystemen voor medische diagnoses of kwaliteitscontrole
Bij aanbevelingssystemen van streamingdiensten of webshops
In voorspellende modellen voor vraag, prijzen of risico's
Bij het trainen van custom AI-modellen voor je eigen bedrijfscasus
Elke AI-engineer of data scientist moet hier bewust mee omgaan — het is een van de meest fundamentele uitdagingen in machine learning.
Wat kun je ermee?
Als je zelf AI-modellen (laat) bouwen, is bewustzijn van overfitting cruciaal. Vraag altijd: hoe presteert dit model op data die het nog nooit gezien heeft? Test het grondig in de praktijk voordat je het inzet. En wees sceptisch bij modellen die "te mooi om waar te zijn" lijken — soms is perfectie op trainingsdata juist een waarschuwingssignaal dat je straks tegen problemen aanloopt in de echte wereld.
Veelgestelde vragen over Overfitting
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is Overfitting?
Als een AI-model de trainingsdata letterlijk uit het hoofd leert in plaats van algemene patronen te herkennen — waardoor het slecht presteert op nieuwe, onbekende situaties.
Waarom is Overfitting belangrijk?
Stel je voor dat je een kind leert herkennen wanneer het gaat regenen. Je laat tien foto's zien van bewolkte luchten, en op al die foto's staat toevallig ook een rode auto. Het kind concludeert: "Als er een rode auto is, gaat het regenen." Dat is overfitting — het kind heeft de voorbeelden letterlijk onthouden in plaats van het échte patroon (bewolking) te leren.
Hoe wordt Overfitting toegepast?
Hetzelfde gebeurt met AI-modellen. Tijdens de training krijgt een model voorbeelden te zien om patronen te herkennen. Maar soms gaat het mis: in plaats van algemene regels te leren, onthoudt het model de specifieke trainingsvoorbeelden tot in detail. Het leert alle toevalligheden, ruis en uitzonderingen mee — en dat maakt het juist slechter in het herkennen van nieuwe situaties.