De anti-hallucinatie checklist: zo verminder je verzonnen feiten
AI-modellen verzinnen soms feiten die geloofwaardig klinken maar niet kloppen. Met deze zes praktische technieken krijg je het hallucineren flink onder controle.

Je vraagt ChatGPT om een samenvatting van een rapport, en het antwoord klinkt heel plausibel. Maar als je het natrekt, blijken cruciale details gewoon verzonnen. Of je laat een AI een e-mail schrijven naar een klant, en er sluipt een niet-bestaande productspecificatie in.
Dit noemen we 'hallucinaties' — een technische term voor het moment dat een AI-model feiten verzint en ze presenteert alsof het waarheid is. Niet omdat het liegt, maar omdat het zo werkt: AI-modellen voorspellen gewoon welk woord het meest waarschijnlijk komt, op basis van patronen in hun trainingsdata. Ze hebben geen ingebouwd waarheidsmechanisme.
Het goede nieuws: je kunt hallucinaties flink terugdringen met een paar concrete technieken. Geen garantie — volledig uitschakelen kan niet — maar wel van 'komt regelmatig voor' naar 'zeldzame uitzondering'. Hier is je anti-hallucinatie checklist.
1. Eis bronnen en laat het model twijfelen

De simpelste en krachtigste truc: vraag het model expliciet om bronnen te noemen, en om te zeggen wanneer het iets niet weet.
Zo doe je dat in je prompt:
"Geef alleen antwoord op basis van feiten die je zeker weet. Als je ergens niet zeker van bent, zeg dan: 'hier ben ik niet zeker van'. Noem waar mogelijk de bron van je informatie."
Of specifieker:
"Gebruik alleen informatie uit de documenten die ik hierboven heb geplakt. Als het antwoord er niet in staat, zeg dan: 'die informatie staat niet in het document'."
Door het model toestemming te geven om 'ik weet het niet' te zeggen, verminder je de druk om een antwoord te fabriceren. Mensen ervaren dit als een van de meest effectieve technieken — het model durft vaker te zeggen dat het iets niet weet in plaats van een plausibel klinkend antwoord te verzinnen.
2. Gebruik RAG: koppel je eigen kennisbron

RAG staat voor Retrieval-Augmented Generation — een techniek waarbij je het AI-model eerst relevante stukken uit jouw eigen documenten laat ophalen, en dan pas een antwoord laat genereren op basis van die stukken.
Stel je voor: je hebt een verzameling producthandleidingen, klantvragen of juridische documenten. Bij een gewone prompt zou het model antwoord geven vanuit zijn algemene trainingskennis. Bij RAG zoekt het model eerst in jouw documenten, haalt de relevante passages op, en gebruikt alleen die passages om het antwoord te formuleren.
In de praktijk gebruik je hiervoor tools als:
ChatGPT Enterprise met kennisbanken
Claude Projects waar je documenten uploadt
Microsoft Copilot dat zoekt in je SharePoint/OneDrive
Zelfgebouwde oplossingen met vector databases (Pinecone, Weaviate, ChromaDB)
Het grote voordeel: het model kan alleen antwoord geven op basis van wat er letterlijk in je documenten staat. Je hebt controle over de kennisbron. Hallucinaties over feiten die niet in je documenten staan, worden zo veel zeldzamer — al kan het model nog steeds verbanden verkeerd interpreteren.
3. Verlaag de 'temperature' voor feitelijke taken
De meeste AI-tools hebben een instelling die 'temperature' heet — een getal tussen 0 en 2 (of 0 en 1, afhankelijk van het model). Dit bepaalt hoe creatief of voorspelbaar het model antwoordt.
Hoge temperature (bijv. 0.9): meer variatie, creatiever, soms verrassende wendingen. Goed voor brainstormen, verhalen schrijven, marketing copy.
Lage temperature (bijv. 0.2): voorspelbaarder, consistenter, meer 'bij het boekje'. Goed voor feitelijke samenvattingen, data-extractie, vertalingen.
Voor taken waar je hallucinaties wilt vermijden — samenvattingen van rapporten, extractie van gegevens uit documenten, technische vragen — zet je de temperature laag. Daarmee forceer je het model om de meest waarschijnlijke, minst speculatieve antwoorden te kiezen.
In ChatGPT en Claude kun je de temperature vaak niet direct instellen via de interface (tenzij je de API gebruikt), maar in custom GPT's of via API-calls wel. Veel bedrijfsoplossingen bieden deze knop standaard.
4. Gebruik 'chain-of-thought': laat het model hardop denken
Een verrassend effectieve techniek: vraag het model om stap voor stap te redeneren voordat het een antwoord geeft.
"Leg uit hoe je tot dit antwoord komt. Neem me stap voor stap mee in je redenering."
Of:
"Denk eerst hardop na over dit probleem voordat je een definitief antwoord geeft."
Waarom werkt dit? Als het model gedwongen wordt zijn redenering expliciet te maken, vallen fouten eerder op. Het model 'ziet' zelf eerder incongruenties, en jij als lezer ziet waar de logica krakend wordt. Bij complexe vragen reduceert dit hallucinaties aanzienlijk — het model gaat zorgvuldiger te werk.
Dit is vooral nuttig bij rekenkundige vragen, logische puzzels, en situaties waarin je wilt snappen hoe het model tot een conclusie komt.
5. Vraag het model zichzelf te checken
Een truc die simpel klinkt maar verrassend goed werkt: laat het model zijn eigen antwoord controleren.
Zo doe je dat:
Vraag je vraag normaal.
Laat het model antwoorden.
Vraag: "Controleer je antwoord. Staan er feiten in die niet kloppen of waar je niet zeker van bent? Geef een herziene versie."
Of in één keer:
"Beantwoord mijn vraag, en controleer daarna je eigen antwoord op feitelijke fouten. Als je iets onzeker bent, zeg dat."
Het werkt omdat het model in de tweede stap kritisch naar zijn eigen output kijkt — en dat blijkt vaak voldoende om hallucinaties te spotten en te corrigeren. Je voegt als het ware een 'tweede leesronde' toe.
6. Splits complexe vragen op in kleinere stappen
Hoe complexer de vraag, hoe groter de kans op hallucinaties. Een AI-model dat in één keer een heel betoog moet opbouwen, heeft meer ruimte om details te verzinnen.
Beter: splits je vraag op in stappen.
Niet: "Maak een vergelijkend overzicht van onze drie grootste concurrenten, hun marktaandeel, en de belangrijkste features van hun product."
Wel:
"Wie zijn onze drie grootste concurrenten?"
"Wat is het marktaandeel van [concurrent A]?" (en check dit zelf)
"Wat zijn de belangrijkste features van het product van [concurrent A]?"
Herhaal voor B en C.
"Maak een overzicht op basis van bovenstaande informatie."
Door elke stap te controleren voordat je verder gaat, bouw je een betrouwbare basis op. Het kost iets meer tijd, maar het voorkomt dat één hallucinatie in stap 1 zich als sneeuwbal door je hele rapport voortplant.
Combineer technieken voor maximale betrouwbaarheid
De technieken hierboven werken elk afzonderlijk, maar samen zijn ze sterker. Een typische workflow voor een betrouwbare output:
Upload relevante documenten (RAG)
Verlaag de temperature naar 0.2-0.3
Vraag: "Beantwoord alleen op basis van de documenten. Als iets er niet in staat, zeg dat. Leg stap voor stap uit hoe je tot je antwoord komt."
Laat het model daarna zijn eigen antwoord controleren
Daarmee ga je van 'regelmatig hallucinaties' naar 'bijna altijd betrouwbaar'. Bijna — want volledig uitschakelen kan niet. Dat is de aard van de technologie.
Accepteer dat hallucinaties onderdeel zijn van AI
Hoe goed je ook wordt in prompt engineering, AI-modellen blijven probabilistische systemen. Ze hebben geen toegang tot een externe database met feiten, en geen ingebouwd mechanisme om waar en onwaar te onderscheiden — ze voorspellen alleen wat er waarschijnlijk komt.
Dat betekent: bij kritieke informatie blijf je zelf controleren. Gebruik AI als eerste schets, niet als eindredacteur. En gebruik de checklist hierboven om die schets zo betrouwbaar mogelijk te maken.
Voor morgen: kies één techniek uit deze lijst en pas 'm toe op een taak waar je normaal AI voor gebruikt. Kijk of het verschil maakt. Vaak merk je het pas als je het uitprobeert — en dan wil je niet meer terug.
Lees ook

De 5 kenmerken van een prompt die écht werkt
Het verschil tussen een vaag antwoord en een bruikbaar resultaat? De manier waarop je je vraag stelt. Deze checklist zorgt dat je AI-tool snapt wat je bedoelt.

Few-shot prompting: leer een AI wat je wilt met twee voorbeelden
Het verschil tussen een vaag en een perfect antwoord? Vaak gewoon twee goede voorbeelden. Zo laat je een taalmodel precies zien wat je bedoelt.

Chain-of-thought prompts: waarom 'denk eerst stap voor stap' werkt
Met één simpele zin verhoog je de kwaliteit van AI-antwoorden drastisch. Ontdek waarom het expliciet vragen om tussenredenering zo effectief is bij complexe vragen.