Direct naar inhoud
Alle termenFundamenten & kernconcepten

Wat is Underfitting?

Wanneer een AI-model zo eenvoudig is dat het zelfs de basispatronen in de data niet oppikt — zoals een lineaal gebruiken om een golvende lijn te tekenen.

Wat is Underfitting

Wat is underfitting eigenlijk?

Stel je voor dat je een kind leert fietsen, maar je geeft alleen de instructie "trap de pedalen". Geen woord over sturen, remmen of balans houden. Het kind zal niet kunnen fietsen — de instructie is te simpel voor de complexiteit van de taak. Dat is precies wat underfitting is: een AI-model dat te simpel is om de werkelijke patronen in de data te herkennen.

Bij underfitting presteert een model slecht, niet omdat het te veel details heeft onthouden (dat is overfitting), maar omdat het te weinig heeft geleerd. Het is alsof je een rechte lijn probeert te tekenen door punten die duidelijk een kromme vormen — je mist de essentie van wat er gaande is.

Hoe herken je het?

Underfitting zie je terug in de cijfers: het model scoort laag op de trainingsdata én op nieuwe data. Dat is anders dan overfitting, waar een model wél goed scoort op trainingsdata maar faalt op nieuwe gevallen.

Een paar signalen:

  • Je model geeft grove voorspellingen die keer op keer naast de werkelijkheid zitten

  • De nauwkeurigheid blijft laag, ook na meer training

  • Het model lijkt belangrijke verbanden compleet te missen

  • Simpele patronen die zelfs jij met het blote oog ziet, pikt het model niet op

Waarom gebeurt dit?

Er zijn een paar klassieke oorzaken:

Te weinig complexiteit — Je gebruikt een model met te weinig parameters of lagen. Alsof je een sommetje met honderd variabelen probeert op te lossen met een rekenmachine die alleen kan optellen en aftrekken.

Te weinig trainingstijd — Het model heeft niet genoeg iteraties gehad om de patronen te vinden. Je stopt de training voordat het überhaupt iets heeft geleerd.

Verkeerde features — De eigenschappen die je het model geeft, bevatten niet de informatie die nodig is. Alsof je huizenprijzen probeert te voorspellen op basis van alleen de kleur van de voordeur.

Te agressieve regularisatie — Soms probeer je overfitting te voorkomen door het model simpel te houden, maar dan schiet je door en maak je het té simpel.

Een voorbeeld uit de praktijk

Een webshop wil voorspellen hoeveel een klant volgende maand zal besteden. Ze bouwen een model dat alleen kijkt naar het gemiddelde bestelbedrag van de afgelopen maand. Dat klinkt logisch, maar het model mist cruciale signalen: hoeveel bestellingen iemand deed, op welke tijdstippen, in welke categorieën, of er kortingscodes werden gebruikt, seizoensinvloeden.

Het resultaat: alle voorspellingen liggen rond hetzelfde bedrag, ongeacht het type klant. Nieuwe klanten krijgen dezelfde voorspelling als trouwe klanten. Het model is underfitted — te simpel voor de complexiteit van aankoopgedrag.

Waar kom je het tegen?

Underfitting is geen specifieke tool of techniek, maar een probleem dat je overal in machine learning kunt tegenkomen:

  • Custom modellen — Bij bedrijven die hun eigen voorspelmodellen trainen (vraagvoorspelling, churn-detectie, fraudeherkenning)

  • AutoML-platforms — Tools als Google AutoML of Azure ML kunnen soms te simpele modellen voorstellen als je weinig data hebt

  • Data science workflows — In Python-omgevingen (Jupyter, scikit-learn) zie je underfitting vaak in de eerste iteraties

  • A/B-testen — Wanneer een nieuw model het slechter doet dan een simpele regel-gebaseerde oplossing

Je herkent het vaak doordat data scientists zeggen: "Het model leert niks" of "We moeten meer capaciteit toevoegen."

Hoe los je het op?

Gelukkig is underfitting meestal makkelijker op te lossen dan overfitting:

  • Complexer model kiezen — Meer lagen, meer parameters, meer leervermogen

  • Betere features toevoegen — Kijk of je relevante informatie mist die het model zou kunnen helpen

  • Langer trainen — Geef het model meer tijd om patronen te ontdekken

  • Regularisatie verminderen — Als je té streng bent geweest, geef het model wat meer vrijheid

Waarom is dit belangrijk voor jou?

Als je met AI-leveranciers of data teams werkt, helpt het om underfitting te herkennen. Wanneer een systeem consistent slechte resultaten geeft — niet af en toe, maar structureel — kan het zijn dat het model simpelweg te simpel is voor de taak. Dat is goed nieuws, want het betekent dat er ruimte is voor verbetering door het model krachtiger te maken of betere data aan te leveren. Het is beter dan een model dat alleen op papier goed lijkt maar in de praktijk faalt (overfitting).

FAQ

Veelgestelde vragen over Underfitting

De drie meest gestelde vragen over dit onderwerp, kort beantwoord.

Wat is Underfitting?

Wanneer een AI-model zo eenvoudig is dat het zelfs de basispatronen in de data niet oppikt — zoals een lineaal gebruiken om een golvende lijn te tekenen.

Waarom is Underfitting belangrijk?

Stel je voor dat je een kind leert fietsen, maar je geeft alleen de instructie "trap de pedalen". Geen woord over sturen, remmen of balans houden. Het kind zal niet kunnen fietsen — de instructie is te simpel voor de complexiteit van de taak. Dat is precies wat underfitting is: een AI-model dat te simpel is om de werkelijke patronen in de data te herkennen.

Hoe wordt Underfitting toegepast?

Bij underfitting presteert een model slecht, niet omdat het te veel details heeft onthouden (dat is overfitting), maar omdat het te weinig heeft geleerd. Het is alsof je een rechte lijn probeert te tekenen door punten die duidelijk een kromme vormen — je mist de essentie van wat er gaande is.

Deel: