Wat is een 'context window' en waarom maakt het uit voor jouw werk?
Sommige AI-tools onthouden een heel gesprek, andere vergeten wat je drie vragen terug zei. Dat verschil zit 'm in het 'werkgeheugen' — en dat bepaalt wat je ermee kunt.

Waarom vergeet de ene AI-tool je vraag, terwijl de andere alles onthoudt?

Misschien ken je het: je bent een gesprek aan het voeren met een AI-tool, stelt een vervolgvraag, en opeens lijkt het alsof de tool je vorige boodschap is vergeten. Of je probeert een lang document samen te vatten, en krijgt als antwoord: "Ik kan dit niet verwerken, het is te lang." Dat komt door iets dat een context window heet — het werkgeheugen van de AI.
Denk aan het context window als het aanrecht in een keuken. Als je een kleine keuken hebt met een piepklein aanrechtblad, kun je maar een paar ingrediënten tegelijk voor je uitspreiden. Wil je een uitgebreid driegangenmenu maken? Dan moet je steeds even opruimen, ingrediënten terugzetten in de kast, en opnieuw beginnen. Een groot aanrecht daarentegen laat je alles tegelijk klaarleggen: groenten, kruiden, pannen, receptenboek — je overziet in één oogopslag wat je nodig hebt.
Zo werkt het ook bij AI. Het context window is de hoeveelheid tekst die de AI in één keer kan 'zien' en gebruiken om je vraag te beantwoorden. Is dat window klein, dan moet je steeds opnieuw uitleggen waar het over gaat. Is het groot, dan kan de AI een heel gesprek, een lang document of zelfs meerdere bestanden tegelijk overzien.
Hoe wordt een context window gemeten?

Context windows worden uitgedrukt in tokens. Een token is ruwweg een stukje woord — gemiddeld zo'n 0,75 woord in het Nederlands. Dus 1.000 tokens is ongeveer 750 woorden. Een standaard A4'tje tekst (300 woorden) komt neer op zo'n 400 tokens.
De eerste versies van ChatGPT hadden een context window van 4.000 tokens — grofweg drie A4'tjes. Dat klinkt op het eerste gehoor niet slecht, maar in de praktijk liep je snel tegen grenzen aan. Stuur je een samenvatting van een vergadering (twee pagina's), plus wat context over je project, plus je vraag? Dan zat je al aan de limiet. Langere gesprekken waren lastig, omdat de AI letterlijk de eerste helft van het gesprek uit z'n geheugen 'dumpte' om ruimte te maken voor de nieuwe input.
Moderne modellen hebben veel grotere context windows. Claude (van Anthropic) biedt bijvoorbeeld 200.000 tokens — dat is meer dan 400 pagina's tekst. Dat verschil is niet alleen een technische upgrade, het verandert wat je met de tool kunt doen.
Wat kun je met een groot context window dat je anders niet kon?
Lange documenten in één keer analyseren Met een klein context window moest je een rapport of contract opsplitsen in stukjes, elk stukje apart invoeren, en de antwoorden zelf weer aan elkaar plakken. Met een groot window upload je het hele document en vraag je: "Wat zijn de drie grootste risico's hierin?" De AI overziet alles in één keer.
Gesprekken die ergens op voortbouwen Met een klein window raakte de AI de draad kwijt na een paar heen-en-weer-vragen. Met een groot window kun je een uur lang doorvragen, verfijnen, terugkomen op een eerder punt — de AI 'weet' nog steeds waar je mee bezig bent.
Meerdere bronnen combineren Stel je voor: je hebt drie rapporten, een lijst met feedback van klanten, en een klad-voorstel voor een nieuwe dienst. Met een groot context window laad je alles tegelijk in en vraag je: "Welke punten uit de feedback sluiten aan bij mijn voorstel, en welke juist niet?" Dat soort kruisverbanden zien vereist dat de AI alles tegelijk kan 'lezen'.
Codebases en technische documentatie Voor developers kan een groot context window het verschil maken tussen "leg dit ene functie uit" en "hier is mijn hele project, waarom werkt deze bug?"
Waarom heeft niet elke AI-tool een enorm context window?
Omdat groter niet altijd beter is — of tenminste: niet altijd nodig. Een groter context window kost meer rekenkracht en dus meer geld. Sommige tools kiezen bewust voor een bescheidener window omdat de meeste vragen dat niet nodig hebben. Bovendien wordt de AI niet automatisch 'slimmer' als het window groter wordt — het kan alleen meer informatie tegelijk verwerken.
Als je vooral korte vragen stelt of snel een antwoord wilt op een simpele vraag, maakt de grootte van het context window nauwelijks uit. Maar zodra je met langere teksten werkt, of een doorlopend gesprek wilt voeren, wordt het cruciaal.
Hoe weet je hoe groot het context window is van de tool die jij gebruikt?
Dat staat meestal op de officiële website van de leverancier. Voor ChatGPT check je platform.openai.com, voor Claude docs.anthropic.com, voor Gemini ai.google.dev. Let op: niet elk abonnement geeft toegang tot het grootste window. Soms is de gratis versie beperkt tot een ouder model met minder geheugen.
Als je merkt dat een AI-tool halverwege een gesprek ineens dingen 'vergeet' die je eerder hebt gezegd, of als je een foutmelding krijgt bij het uploaden van een document, dan loop je waarschijnlijk tegen de limiet van het context window aan.
Wat kun je hier morgen mee?
Vraag jezelf af: wat voor taken doe ik met AI? Als je vooral korte vragen stelt ('schrijf een LinkedIn-post over X'), dan is een klein context window prima. Maar als je regelmatig lange documenten analyseert, doorlopende gesprekken voert of meerdere bronnen wilt combineren, zoek dan uit welk model een groot context window heeft — en of je huidige abonnement daar toegang toe geeft.
Een groot werkgeheugen betekent minder heen-en-weer, minder herhalen, en meer ruimte om echt diep te gaan. Net zoals een groot aanrecht het verschil maakt tussen gehaast koken en rustig experimenten uitproberen.
Lees ook

Waar komt het woord 'artificial intelligence' vandaan?
Het verhaal begint op een zomerse campus in 1956, toen een groep wetenschappers bij elkaar kwam met een ambitieus idee. De naam die ze aan hun project gaven, gebruiken we vandaag nog steeds.

Hoe werkt een taalmodel eigenlijk? Zonder wiskunde uitgelegd
Je typt een vraag en het antwoord rolt eruit. Maar wat gebeurt er eigenlijk in die seconde tussen jouw vraag en het antwoord? Een blik onder de motorkap, zonder ingewikkelde formules.

Wat is het verschil tussen machine learning, deep learning en AI?
Drie termen die door elkaar gebruikt worden, maar niet hetzelfde betekenen. Hier lees je het verschil — met voorbeelden die je direct herkent.