Chain-of-thought prompts: waarom 'denk eerst stap voor stap' werkt
Met één simpele zin verhoog je de kwaliteit van AI-antwoorden drastisch. Ontdek waarom het expliciet vragen om tussenredenering zo effectief is bij complexe vragen.

Je hebt waarschijnlijk al eens een AI-model een rekenfout zien maken. Of een logische denkfout. Terwijl je weet dat diezelfde AI seconden eerder een ingewikkelde vraag perfect beantwoordde. Frustrerend, toch?
Het goede nieuws: je kunt de kwaliteit van antwoorden flink verbeteren met één simpele toevoeging aan je prompt. Het trucje heet chain-of-thought prompting en komt erop neer dat je de AI vraagt om hardop te 'denken' voordat ze een antwoord geeft.
In dit artikel leg ik uit waarom dit zo goed werkt, wanneer je het moet gebruiken, en hoe je het toepast in je dagelijkse werk.
Waarom AI's struikelen over simpele vraagstukken

Laten we beginnen met een voorbeeld. Stel je voor dat je een AI-model vraagt:
"Lisa heeft 8 appels. Ze geeft er 3 aan Tom en koopt er daarna 5 bij. Hoeveel appels heeft Lisa nu?"
Een mens lost dit op door de stappen in zijn hoofd uit te rekenen: eerst 8 minus 3 is 5, dan 5 plus 5 is 10. Maar een taalmodel werkt anders. Het genereert woord voor woord een antwoord op basis van patronen die het eerder heeft gezien. Als je alleen het eindantwoord vraagt, moet het in één keer naar de conclusie springen — zonder tussenliggende redenering.
Het resultaat? Bij simpele vragen gaat het goed. Bij complexere vragen, of vragen met meerdere stappen, gaat het mis. Het model 'raadt' het antwoord eerder dan dat het redeneert.
Wat is chain-of-thought prompting?

Chain-of-thought prompting is een techniek waarbij je de AI expliciet vraagt om zijn redenering stap voor stap op te schrijven voordat het een eindantwoord geeft. In plaats van direct naar de conclusie te springen, forceer je het model om tussenliggende stappen te genereren.
De klassieke manier om dit te doen is door een zin toe te voegen zoals:
"Denk stap voor stap na" of "Laat je redenering zien voordat je het antwoord geeft".
Die simpele toevoeging verandert het gedrag van het model fundamenteel. In plaats van meteen een antwoord te produceren, zal het eerst de tussenliggende stappen uitschrijven — en daardoor tot een beter eindresultaat komen.
Waarom werkt dit eigenlijk?
Het heeft te maken met hoe taalmodellen intern werken. Elk woord dat een model genereert, beïnvloedt de kansen voor het volgende woord. Door het model eerst tussenliggende stappen te laten opschrijven, geef je het feitelijk meer 'denktijd' — meer ruimte om relevante context op te bouwen voordat het de finale conclusie trekt.
Stel je voor dat je iemand vraagt om direct het antwoord te geven op een ingewikkeld wiskundeprobleem, versus dat je vraagt om eerst de formules en tussenstappen op te schrijven. Bij die tweede optie vergroot je de kans dat ze het juiste antwoord vinden, omdat ze zichzelf verplichten om logisch door de stappen heen te denken.
Bij AI-modellen werkt hetzelfde mechanisme. Door de tussenredenering te genereren, creëer je een tekstuele 'gedachtegang' die het model helpt om consistenter en nauwkeuriger te blijven.
Praktijkvoorbeelden: waar chain-of-thought echt helpt
Wiskundige vraagstukken
Terug naar ons appelvoorbeeld. Als je de vraag stelt zonder chain-of-thought, krijg je misschien direct een antwoord dat niet klopt. Maar als je vraagt:
"Lisa heeft 8 appels. Ze geeft er 3 aan Tom en koopt er daarna 5 bij. Hoeveel appels heeft Lisa nu? Denk stap voor stap na."
...dan zie je dat het model schrijft:
"Stap 1: Lisa begint met 8 appels. Stap 2: Ze geeft er 3 aan Tom, dus 8 - 3 = 5 appels. Stap 3: Ze koopt er 5 bij, dus 5 + 5 = 10 appels. Antwoord: Lisa heeft nu 10 appels."
Door de tussenliggende berekeningen op te schrijven, 'dwingt' het model zichzelf tot correcte redenering.
Logische puzzels
Chain-of-thought is ook onmisbaar bij logische vraagstukken. Bijvoorbeeld:
"Alle katten zijn dieren. Sommige dieren zijn huisdieren. Betekent dit dat alle katten huisdieren zijn?"
Zonder chain-of-thought kan een model te snel naar een conclusie springen. Met de toevoeging 'denk stap voor stap na' zal het model eerst de logische structuur ontleden:
"Stap 1: Alle katten zijn dieren (waar). Stap 2: Sommige dieren zijn huisdieren (waar). Stap 3: Maar dit betekent niet dat álle dieren huisdieren zijn. Conclusie: Nee, we kunnen hieruit niet afleiden dat alle katten huisdieren zijn. Er kunnen katten zijn die geen huisdier zijn (bijvoorbeeld wilde katten)."
Die opbouw verkleint de kans op denkfouten aanzienlijk.
Tekstanalyse en argumentatie
Ook bij het analyseren van tekst of het controleren van argumenten helpt chain-of-thought. Stel je wilt dat een AI beoordeelt of een redenering klopt:
"'Bedrijf X heeft de omzet dit kwartaal met 20% zien stijgen. Dus het bedrijf is winstgevend.' Klopt deze redenering? Denk stap voor stap na."
Het model zal dan uiteenzetten:
"Stap 1: Omzetstijging betekent meer inkomsten. Stap 2: Maar winst is omzet minus kosten. Stap 3: Als de kosten harder zijn gestegen dan de omzet, kan het bedrijf alsnog verlies lijden. Conclusie: Nee, de redenering klopt niet. Omzetstijging garandeert geen winst."
Zonder die expliciete opdracht had het model misschien 'ja' geantwoord op basis van het positieve sentiment van 'omzet stijgt'.
Wanneer gebruik je chain-of-thought?
Niet elke prompt heeft chain-of-thought nodig. Bij simpele vragen ('Wat is de hoofdstad van Frankrijk?') heeft het geen toegevoegde waarde. Maar bij de volgende situaties is het bijna altijd zinvol:
Meerledige berekeningen (rekenen met meerdere stappen, percentages, verhoudingen)
Logische redenering (als-dan-vragen, causale verbanden, puzzels)
Analysevragen (waarom klopt dit wel/niet, wat is de fout in deze tekst)
Planningsvraagstukken (welke stappen moet ik zetten om X te bereiken)
Vergelijking van opties (welke van deze drie oplossingen is het beste, en waarom)
Als vuistregel: zodra het antwoord afhankelijk is van meerdere logische stappen, gebruik je chain-of-thought.
Variaties op de techniek
Je hoeft niet altijd letterlijk 'denk stap voor stap na' te schrijven. Andere formuleringen die hetzelfde effect hebben:
"Leg je redenering uit voordat je een conclusie trekt"
"Werk dit uit in duidelijke stappen"
"Laat zien hoe je tot dit antwoord komt"
"Analyseer dit stap voor stap"
Sommige mensen gebruiken ook voorbeelden in hun prompt (few-shot chain-of-thought), waarin je één of twee voorbeeldvragen met bijbehorende stapsgewijze redeneringen meegeeft. Dat versterkt het effect, maar kost wel meer tokens.
De keerzijde: langere antwoorden
Chain-of-thought heeft één nadeel: de antwoorden worden langer. Omdat het model zijn redenering volledig uitschrijft, gebruik je meer tokens en kost het iets meer tijd. Als je duizenden vragen tegelijk verwerkt, kan dat een verschil maken in kosten of snelheid.
In die gevallen kun je experimenteren met een hybride aanpak: gebruik chain-of-thought alleen voor de complexe vragen, en houd de prompt kort bij eenvoudige opzoekacties.
Er zijn ook technieken zoals implicit chain-of-thought, waarbij het model intern wel redeneert maar de tussenliggende stappen niet naar buiten brengt. Dat is echter geavanceerder en wordt nog niet door alle modellen ondersteund.
Wat kun je morgen doen?
Probeer deze week eens bij vijf vragen waar je normaal gesproken direct een antwoord vraagt, de zin 'denk stap voor stap na' toe te voegen. Let op het verschil in kwaliteit — vooral bij rekenwerk, logische vraagstukken of beslissingen met meerdere variabelen.
Een concrete oefening: neem een complexe vraag uit je werk (bijvoorbeeld: 'Welke marketingstrategie past het beste bij ons product?') en vergelijk het antwoord mét en zonder chain-of-thought. Je zult merken dat het antwoord met chain-of-thought niet alleen beter onderbouwd is, maar ook nuances bevat die je anders mist.
De essentie van chain-of-thought is simpel: dwing het model om hardop te denken, en je krijgt betere antwoorden. Geen ingewikkelde trucjes, gewoon één zin die het verschil maakt.
Lees ook

De 5 kenmerken van een prompt die écht werkt
Het verschil tussen een vaag antwoord en een bruikbaar resultaat? De manier waarop je je vraag stelt. Deze checklist zorgt dat je AI-tool snapt wat je bedoelt.

Few-shot prompting: leer een AI wat je wilt met twee voorbeelden
Het verschil tussen een vaag en een perfect antwoord? Vaak gewoon twee goede voorbeelden. Zo laat je een taalmodel precies zien wat je bedoelt.

System prompts: de onzichtbare instructies die alles veranderen
Je typt een vraag in ChatGPT, maar het antwoord wordt al bepaald door instructies die je nooit hebt gezien. Zo werken system prompts — en waarom je ze zelf moet beheersen.