Direct naar inhoud
Alle termenLarge Language Models & NLP

Wat is Teacher Forcing?

Een trainingsmethode waarbij een AI-model tijdens het leren de juiste antwoorden als input krijgt, in plaats van zijn eigen (mogelijk foute) voorspellingen te gebruiken.

Wat is Teacher Forcing

Wat is Teacher Forcing eigenlijk?

Stel je voor dat je een kind leert om zinnen te maken. Je begint met "De kat" en het kind moet het volgende woord raden. Als het kind "boom" zegt (fout), kun je twee dingen doen: doorgaan met dat foute woord en kijken wat er gebeurt, of gewoon zeggen "nee, het is 'zit'" en daarmee verder. Teacher Forcing is die tweede aanpak — je geeft het model steeds het juiste antwoord, zodat het niet verdwaalt in zijn eigen fouten.

Bij het trainen van taalmodellen werkt het zo: het model moet woord-voor-woord een zin voorspellen. Normaal zou het zijn eigen voorspelling gebruiken als input voor het volgende woord. Maar met Teacher Forcing geef je het model steeds het échte, juiste woord uit de trainingsdata. Zo leert het sneller en stabieler, omdat het niet van de rails raakt door eigen missers.

Waarom doen we dit?

Zonder Teacher Forcing kan training een rommeltje worden. Als een model in het begin een fout maakt (en dat doet het vaak), gebruikt het die fout om het volgende woord te voorspellen, dan weer een fout, enzovoort. Je krijgt een soort sneeuwbaleffect van fouten. Het model raakt steeds verder van de werkelijkheid en leert eigenlijk van zijn eigen onzin.

Met Teacher Forcing voorkom je dat. Het model krijgt bij elke stap de correcte context, alsof een leraar steeds de goede richting aanwijst. Hierdoor:

  • Traint het model veel sneller — het hoeft niet eerst door een moeras van eigen fouten te ploeteren

  • Blijft de training stabiel — geen wildgroei van rare patronen

  • Leert het model de juiste woordvolgordes beter aan

Een voorbeeld uit de praktijk

Stel, je traint een model om deze zin te genereren: "De hond rent door het park."

Zonder Teacher Forcing:

  • Model ziet "De" → voorspelt "kat" (fout)

  • Model ziet "De kat" → voorspelt "slaapt" (nog fouter)

  • Model ziet "De kat slaapt" → voorspelt "bed" (helemaal de mist in)

Met Teacher Forcing:

  • Model ziet "De" → voorspelt "kat", maar krijgt "hond" als input voor de volgende stap

  • Model ziet "De hond" → voorspelt "slaapt", maar krijgt "rent" als input

  • Model ziet "De hond rent" → voorspelt "naar", maar krijgt "door" als input

Het model krijgt dus steeds het juiste voorgaande woord, ongeacht wat het zelf dacht. Zo leert het de échte patronen uit de data.

Het nadeel: exposure bias

Er zit een addertje onder het gras. Omdat het model tijdens training nooit zijn eigen fouten ziet, raakt het in paniek als het later in de echte wereld wél een foutje maakt. Het heeft nooit geleerd om te herstellen van een missertje.

Dit heet exposure bias (blootstellingsbias): het model is tijdens training alleen blootgesteld aan perfecte situaties, terwijl de echte wereld rommelig is. Daarom gebruiken onderzoekers soms een mix: in het begin veel Teacher Forcing, later steeds vaker de eigen voorspellingen van het model gebruiken. Zo went het aan imperfectie.

Waar kom je het tegen?

Teacher Forcing wordt gebruikt bij het trainen van:

  • Vertalers (machine translation modellen zoals die achter Google Translate, DeepL)

  • Chatbots en conversatie-AI tijdens de trainingstap

  • Tekst-naar-spraak systemen die zinnen moeten leren uitspreken

  • Ondertitelingssystemen die geschreven tekst genereren uit spraak

  • Seq2seq-modellen (sequence-to-sequence) in het algemeen — architecturen die van de ene reeks naar de andere gaan

Moderne grote taalmodellen gebruiken varianten hiervan, soms gecombineerd met andere technieken om het exposure bias-probleem aan te pakken.

Wat kun je ermee?

Als je zelf AI-modellen traint of ermee werkt, is het goed om te weten dat Teacher Forcing een soort trainingswieltjes is. Het helpt modellen om snel de basis te leren, maar voor robuuste systemen die ook met onverwachte input kunnen omgaan, heb je meer nodig. Als je merkt dat een model in productie vreemde fouten maakt die tijdens training niet opdoken, kan het zijn dat er te veel op Teacher Forcing is geleund.

Begrijp je hoe je AI-model getraind is, dan begrijp je ook beter waar het sterk is — en waar het kwetsbaar.

FAQ

Veelgestelde vragen over Teacher Forcing

De drie meest gestelde vragen over dit onderwerp, kort beantwoord.

Wat is Teacher Forcing?

Een trainingsmethode waarbij een AI-model tijdens het leren de juiste antwoorden als input krijgt, in plaats van zijn eigen (mogelijk foute) voorspellingen te gebruiken.

Waarom is Teacher Forcing belangrijk?

Stel je voor dat je een kind leert om zinnen te maken. Je begint met "De kat" en het kind moet het volgende woord raden. Als het kind "boom" zegt (fout), kun je twee dingen doen: doorgaan met dat foute woord en kijken wat er gebeurt, of gewoon zeggen "nee, het is 'zit'" en daarmee verder. Teacher Forcing is die tweede aanpak — je geeft het model steeds het juiste antwoord, zodat het niet verdwaalt in zijn eigen fouten.

Hoe wordt Teacher Forcing toegepast?

Bij het trainen van taalmodellen werkt het zo: het model moet woord-voor-woord een zin voorspellen. Normaal zou het zijn eigen voorspelling gebruiken als input voor het volgende woord. Maar met Teacher Forcing geef je het model steeds het échte, juiste woord uit de trainingsdata. Zo leert het sneller en stabieler, omdat het niet van de rails raakt door eigen missers.

Deel: