Hoe werkt een taalmodel eigenlijk? Zonder wiskunde uitgelegd
Je typt een vraag en het antwoord rolt eruit. Maar wat gebeurt er eigenlijk in die seconde tussen jouw vraag en het antwoord? Een blik onder de motorkap, zonder ingewikkelde formules.

Je stelt ChatGPT of Claude een vraag. Binnen enkele seconden verschijnt een antwoord dat soms verbazingwekkend goed aanvoelt. Maar wat gebeurt er eigenlijk in die paar tellen? Hoe 'begrijpt' zo'n systeem wat je vraagt — en hoe weet het wat het moet antwoorden?
Het korte antwoord: het begrijpt helemaal niks. Tenminste, niet zoals jij iets begrijpt. Een taalmodel is geen denker, maar een patroonherkenner op steroïden. Het heeft miljarden voorbeelden gezien van hoe mensen schrijven, en leert daaruit: welk woord volgt meestal op welk ander woord?
Dat klinkt simpel. Maar die patronen zijn zó complex en verfijnd dat het resultaat verrassend menselijk overkomt. Laten we stap voor stap door het proces lopen, zonder formules.
Stap 1: van woorden naar brokjes (tokenization)
Een taalmodel kan niet lezen zoals jij leest. Het ziet letters niet als letters, maar als getallen. Voordat je vraag überhaupt wordt verwerkt, wordt je zin opgehakt in kleine stukjes die we tokens noemen.
Stel je typt: "Hoe laat is het?"
Het model ziet dat niet als vijf woorden, maar als losse brokjes: "Hoe", " laat", " is", " het", "?". Soms wordt een woord als geheel gezien, soms wordt het opgesplitst. Een lang woord als "onbegrijpelijk" kan worden opgedeeld in "on", "begrijp", "elijk". Waarom? Omdat het model zo efficiënter patronen kan herkennen — ook in woorden die het nog nooit eerder zag.
Denk aan tokens als legoblokjes. Elke zin wordt uit die blokjes opgebouwd. Het model leert welke blokjes meestal na elkaar komen.
Stap 2: welk woord volgt? (voorspelling)
Nu komt het kernprincipe: een taalmodel voorspelt simpelweg het volgende woord.
Je typt: "De kat zat op de..."
Het model heeft duizenden keren zinnen gezien die lijken op deze. Het weet: na "op de" volgt vaak "mat", "bank", "vensterbank", "grond". Het kiest het woord dat statistisch gezien het meest waarschijnlijk is in deze context.
Maar hier wordt het slimmer. Het model kijkt niet alleen naar het laatste woord, maar naar de hele zin tot nu toe. Het begrijpt (of liever: heeft geleerd) dat "kat" een dier is dat vaak op verhoogde plekken zit. Het weet dat "mat" vaker voorkomt in sprookjes en gedichten, terwijl "vensterbank" realistischer klinkt. Afhankelijk van de toon en context van je vraag, maakt het een keuze.
En dan doet het dit opnieuw. En opnieuw. Woord na woord, tot het besluit te stoppen (bijvoorbeeld na een punt, of als je vraag volledig beantwoord lijkt).
Stap 3: context onthouden (het 'geheugen')
Hier wordt het indrukwekkend. Oudere systemen konden alleen naar de paar woorden vóór het huidige woord kijken. Moderne taalmodellen kijken naar honderden of duizenden woorden tegelijk — soms zelfs naar je hele gesprek tot nu toe.
Stel je vraagt: "Wat is de hoofdstad van Frankrijk?" Het model antwoordt: "Parijs."
En dan vraag je: "Wat kun je daar doen?"
Het model weet dat "daar" verwijst naar Parijs, omdat het de hele conversatie nog 'ziet'. Het bewaart niet letterlijk een geheugen zoals jij dat doet, maar het heeft de eerdere tokens nog steeds beschikbaar als context voor de volgende voorspelling.
Dit heet het contextvenster — een soort werkgeheugen. Bij sommige modellen is dat vrij klein (een paar pagina's tekst), bij andere gigantisch (hele boeken tegelijk). Hoe groter dat venster, hoe beter het model de draad kan vasthouden in lange gesprekken.
Hoe leerde het dit allemaal? (training)
Je vraagt je misschien af: hoe weet het model al die patronen?
Dat komt door training. Voor een taalmodel wordt getraind, wordt het gevoed met een enorme hoeveelheid tekst: boeken, artikelen, websites, gesprekken. We praten over honderden miljarden woorden.
Het model krijgt dan een simpele opdracht: voorspel het volgende woord. Steeds opnieuw. Miljoenen keren.
Elke keer dat het fout zit, wordt er iets bijgesteld in de interne structuur (de 'parameters'). Elke keer dat het goed zit, wordt dat patroon versterkt. Na weken rekenkracht op enorme datacenters, is het model zo verfijnd dat het patronen herkent die zelfs mensen niet bewust opmerken.
Denk aan een kind dat leert praten. Het hoort duizenden gesprekken, en langzaam leert het: na "ik wil" volgt meestal een werkwoord. Na "de" komt vaak een zelfstandig naamwoord. Alleen doet een AI dit op een schaal die menselijk leren ver overstijgt.
Waarom voelt het soms zo 'slim'?
Omdat de patronen zo subtiel zijn. Het model heeft niet alleen geleerd welke woorden vaak samen voorkomen, maar ook:
Toon: formele vragen krijgen formele antwoorden, informele vragen informele.
Context: als je over juridische kwesties praat, kiest het juridisch taalgebruik.
Logica: het heeft zoveel voorbeelden van redenaties gezien dat het vaak logisch lijkt te redeneren — ook al 'denkt' het niet echt.
Maar vergis je niet: het model begrijpt niet wat Parijs is. Het weet niet hoe een kat eruitziet. Het heeft alleen miljarden keer gezien dat "Parijs" en "hoofdstad van Frankrijk" samen voorkomen, en dat "kat" vaak samen gaat met "zitten", "liggen", "miauwen".
De grenzen: waarom het soms fout gaat
Juist omdat het gaat om patronen en niet om echt begrip, gaat het weleens mis:
Hallucinaties: het model verzint feiten die aannemelijk klinken, omdat de woordvolgorde statistisch klopt — maar de inhoud niet.
Oppervlakkigheid: het kan iets beschrijven zonder de dieperliggende betekenis te 'snappen'.
Bias: als de trainingsdata vol zitten met vooroordelen, reproduceert het model die.
Geen actualiteit: wat het weet, stopt op het moment van training. Zonder updates weet het niks van gisteren.
Wat betekent dit voor jou?
Als je begrijpt hoe een taalmodel werkt, kun je het beter inzetten:
Wees specifiek: hoe duidelijker je context geeft, hoe beter het model het juiste patroon herkent.
Controleer feiten: het klinkt overtuigend, maar check alles wat belangrijk is.
Herhaal jezelf: wil je dat het model iets onthoudt? Verwijs er expliciet naar, want het 'geheugen' is beperkt tot wat er letterlijk staat.
En besef: je praat niet met een expert, maar met een systeem dat extreem goed is in het nabootsen van hoe experts schrijven. Dat is indrukwekkend — en nuttig — maar ook fundamenteel anders dan menselijk denken.
De kern: een taalmodel leest patronen in taal, voorspelt het volgende woord op basis van wat het heeft gezien, en doet dat zo vaak en zo verfijnd dat het resultaat verrassend menselijk voelt. Geen magie, geen bewustzijn — wel brute rekenkracht en slimme statistiek.
Lees ook

Waar komt het woord 'artificial intelligence' vandaan?
Het verhaal begint op een zomerse campus in 1956, toen een groep wetenschappers bij elkaar kwam met een ambitieus idee. De naam die ze aan hun project gaven, gebruiken we vandaag nog steeds.

Wat is het verschil tussen machine learning, deep learning en AI?
Drie termen die door elkaar gebruikt worden, maar niet hetzelfde betekenen. Hier lees je het verschil — met voorbeelden die je direct herkent.

Waarom AI soms met vol vertrouwen volledig fout zit
Je vraagt ChatGPT om een overzicht van je rechten als huurder, en het antwoord klinkt overtuigend. Tot je advocaat zegt: dit klopt van geen kanten. Hoe kan dat?