Direct naar inhoud
Alle termenLarge Language Models & NLP

Wat is Chain-of-Thought?

Een manier om AI-modellen stap voor stap te laten 'nadenken' voordat ze een antwoord geven, waardoor ze beter worden in complexe redeneringen en je kunt zien hoe ze tot hun conclusie kwamen.

Wat is Chain-of-Thought

Wat is Chain-of-Thought?

Stel je voor dat je een moeilijke rekensom moet maken. Je schrijft niet meteen het antwoord op, maar je noteert eerst de tussenstappen: "Eerst tel ik dit op, dan deel ik door dat, en dan..." Chain-of-Thought werkt precies zo voor AI-modellen. In plaats van direct een antwoord te geven, laat je het model eerst hardop 'nadenken' door tussenstappen uit te schrijven.

Het idee is simpel: complexe vragen worden makkelijker als je ze in kleinere deelproblemen opsplitst. Een language model dat bijvoorbeeld moet uitrekenen hoeveel appels er overblijven na een wiskundige puzzel, kan dat veel beter als het eerst schrijft: "Er waren 10 appels, Piet nam er 3, dus blijven er 7 over. Jan bracht er 5, dus nu zijn het 12." Dan pas het eindantwoord: 12.

Hoe werkt het in de praktijk?

Chain-of-Thought ontstaat op twee manieren. De eerste manier is few-shot prompting: je geeft het model een paar voorbeelden waarin je laat zien hoe je een probleem stap voor stap oplost. Het model leert dat patroon herkennen en past het toe op nieuwe vragen.

De tweede manier is nog eenvoudiger: je vraagt expliciet om tussenstappen. Schrijf in je prompt iets als "Denk stap voor stap na" of "Leg uit hoe je tot je antwoord komt". Moderne modellen zijn hier zo goed in geworden dat ze vanzelf beginnen te redeneren zodra je erom vraagt.

Een voorbeeld: stel, je vraagt "Als een trein om 14:30 vertrekt en 2 uur en 45 minuten onderweg is, hoe laat komt hij aan?" Zonder Chain-of-Thought gokt een model misschien. Met Chain-of-Thought schrijft het: "De trein vertrekt om 14:30. Tel er eerst 2 uur bij op: 16:30. Tel er dan 45 minuten bij: 17:15. Antwoord: 17:15."

Waarom zou jij hier iets aan hebben?

De twee grote voordelen zijn nauwkeurigheid en transparantie. AI-modellen maken minder fouten bij rekenen, logische puzzels en meerlagige vragen als ze hun werk mogen laten zien. En jij ziet precies waar het model eventueel de fout in gaat — handig bij kritische beslissingen.

Chain-of-Thought is vooral krachtig bij:

  • Wiskundige vraagstukken en berekeningen

  • Logische redeneringen ("Als A groter is dan B, en B groter dan C...")

  • Meerstaps-instructies ("Plan een reis met deze beperkingen")

  • Juridische of medische analyses, waar transparantie cruciaal is

Het nadeel? Het kost meer tokens (en dus tijd en geld), omdat het model langer antwoord produceert. Voor simpele vragen is het overkill.

Waar kom je het tegen?

Bijna alle moderne AI-assistenten ondersteunen Chain-of-Thought, al noemen ze het niet altijd zo. Je vindt het in:

  • ChatGPT (OpenAI): vraag expliciet "leg stap voor stap uit"

  • Claude (Anthropic): reageert vaak vanzelf met gestructureerde redeneringen

  • Gemini (Google): heeft ingebouwde "thinking"-modus bij complexe vragen

  • Copilot (Microsoft): vooral bij codeerproblemen zie je stapsgewijze uitleg

Ook in gespecialiseerde AI-tools voor financiële analyse, medische diagnostiek of juridisch advies wordt Chain-of-Thought steeds vaker standaard — precies omdat transparantie daar zo belangrijk is.

Zelf aan de slag

Wil je Chain-of-Thought toepassen? Begin met een simpele toevoeging aan je prompts: "Denk stap voor stap na" of "Leg uit hoe je tot dit antwoord komt". Experimenteer met voorbeelden waarin je zelf de tussenstappen uitschrijft — het model pikt dat patroon snel op.

Bij belangrijke vragen, zoals financiële berekeningen of strategische analyses, is het verstandig om Chain-of-Thought standaard te gebruiken. Je krijgt niet alleen betere antwoorden, maar ook inzicht in de logica erachter. En dat maakt het verschil tussen blind vertrouwen en geïnformeerd oordelen.

FAQ

Veelgestelde vragen over Chain-of-Thought

De drie meest gestelde vragen over dit onderwerp, kort beantwoord.

Wat is Chain-of-Thought?

Een manier om AI-modellen stap voor stap te laten 'nadenken' voordat ze een antwoord geven, waardoor ze beter worden in complexe redeneringen en je kunt zien hoe ze tot hun conclusie kwamen.

Waarom is Chain-of-Thought belangrijk?

Stel je voor dat je een moeilijke rekensom moet maken. Je schrijft niet meteen het antwoord op, maar je noteert eerst de tussenstappen: "Eerst tel ik dit op, dan deel ik door dat, en dan..." Chain-of-Thought werkt precies zo voor AI-modellen. In plaats van direct een antwoord te geven, laat je het model eerst hardop 'nadenken' door tussenstappen uit te schrijven.

Hoe wordt Chain-of-Thought toegepast?

Het idee is simpel: complexe vragen worden makkelijker als je ze in kleinere deelproblemen opsplitst. Een language model dat bijvoorbeeld moet uitrekenen hoeveel appels er overblijven na een wiskundige puzzel, kan dat veel beter als het eerst schrijft: "Er waren 10 appels, Piet nam er 3, dus blijven er 7 over. Jan bracht er 5, dus nu zijn het 12." Dan pas het eindantwoord: 12.

Deel:

Besproken in artikelen

Waar lees je meer over Chain-of-Thought op dit platform?