Direct naar inhoud
Alle termenGeneratieve AI & multimodaal

Wat is AI Hallucinatie?

Wanneer een AI-model iets verzint dat plausibel klinkt maar niet klopt — alsof het met overtuiging liegt zonder te beseffen dat het liegt.

Ook bekend als: Hallucinatie, hallucination, hallucinatie

Wat is AI Hallucinatie

Wat is een AI-hallucinatie?

Stel je voor: je vraagt een AI-assistent om informatie over een historische gebeurtenis, en het geeft je een gedetailleerd, overtuigend antwoord — compleet met datums, namen en citaten. Het klinkt perfect. Totdat je het nazoekt en ontdekt dat de helft verzonnen is.

Dat is een AI-hallucinatie. Het model genereert informatie die niet gebaseerd is op feiten, maar die wél geloofwaardig overkomt. Het verzint bronnen die niet bestaan, attributeert uitspraken aan mensen die ze nooit gedaan hebben, of creëert statistieken uit het niets.

Het gekke: het model liegt niet bewust. Het heeft geen concept van waarheid. Het voorspelt simpelweg welke woorden waarschijnlijk volgen op basis van patronen in zijn trainingsdata — en soms leidt dat tot output die klinkt als een feit, maar dat niet is.

Waarom gebeurt dit?

AI-modellen zoals chatbots werken als geavanceerde tekst-voorspellers. Ze zijn getraind op enorme hoeveelheden tekst en leren patronen: welke woorden horen vaak bij elkaar, welke zinnen klinken natuurlijk, hoe je een argument opbouwt.

Maar ze hebben geen toegang tot een interne database met "waarheid". Als je vraagt "Wie won de Nobelprijs voor Literatuur in 2019?", berekent het model niet dat het antwoord Olga Tokarczuk is door een feitencheck te doen. Het genereert een naam die in de context waarschijnlijk past — meestal goed, soms fout.

Bij onderwerpen met weinig trainingsdata, of bij vragen die specifieke, recente of zeer gedetailleerde informatie vereisen, is de kans op hallucinaties groter. Het model vult de leegte op met wat plausibel klinkt.

Een voorbeeld uit de praktijk

Een jurist in de Verenigde Staten gebruikte ChatGPT om juridische precedenten te vinden voor een rechtszaak. Het model leverde zes relevante uitspraken — met zaaksnummers, data en citaten. Perfect. Tot de rechter ontdekte dat alle zes verzonnen waren. De AI had jurisprudentie gehallucineerd die nooit bestaan heeft.

Of dichter bij huis: vraag een AI-assistent om recente wetenschappelijke artikelen over een niche-onderwerp. Het noemt drie papers met auteurs, titels en publicatiejaren. Ga je ze opzoeken? Ze bestaan niet. De titels klinken academisch genoeg, maar het zijn fantasie-constructies.

Daarom is het cruciaal om AI-output altijd te verifiëren — vooral bij feiten, cijfers, bronnen en beslissingen met consequenties.

Hoe herken je hallucinaties?

Een aantal signalen:

  • Te specifiek, te zeker: het model geeft extreem gedetailleerde antwoorden op vragen waarvan je weet dat de data schaars is

  • Onvindbare bronnen: citaten of papers die nergens te traceren zijn

  • Interne tegenstrijdigheden: het model zegt A en even later niet-A

  • Te mooi om waar te zijn: het antwoord is precies wat je wilde horen, perfect geformuleerd — maar voelt oppervlakkig

Controlemechanismen helpen: sommige tools geven bronverwijzingen, andere laten je per alinea factchecken. Maar geen enkel systeem is waterdicht.

Waar kom je het tegen?

Hallucinaties komen voor in alle tekstgenererende AI-systemen: ChatGPT, Claude, Gemini, Copilot, Perplexity, en open-source modellen zoals Llama of Mistral. Ook AI-tools die samenvattingen maken, teksten schrijven of vragen beantwoorden kunnen hallucineren.

Beeldgenererende AI kan ook hallucineren — niet in de vorm van feiten, maar door objecten te creëren die fysiek onmogelijk zijn (handen met zeven vingers, architectuur die geen logische constructie heeft).

De term wordt breed gebruikt in AI-onderzoek, journalistiek en bedrijfscontext. Het is één van de grootste uitdagingen bij het inzetten van generatieve AI in professionele omgevingen.

Wat kun je ermee?

Als je AI gebruikt voor onderzoek, contentcreatie of besluitvorming: bouw altijd een verificatiestap in. Gebruik AI als startpunt, niet als eindpunt. Vraag om bronnen en check ze. Wees extra alert bij feiten, cijfers, juridische informatie, medische claims of historische details.

Begrijp dat het model geen "kennis" heeft zoals jij — het imiteert taal. Dat maakt het krachtig voor creatieve brainstorms, eerste versies en ideeën. Maar voor waarheid heb je nog steeds menselijke oordeelskracht nodig.

FAQ

Veelgestelde vragen over AI Hallucinatie

De drie meest gestelde vragen over dit onderwerp, kort beantwoord.

Wat is AI Hallucinatie?

Wanneer een AI-model iets verzint dat plausibel klinkt maar niet klopt — alsof het met overtuiging liegt zonder te beseffen dat het liegt.

Waarom is AI Hallucinatie belangrijk?

Stel je voor: je vraagt een AI-assistent om informatie over een historische gebeurtenis, en het geeft je een gedetailleerd, overtuigend antwoord — compleet met datums, namen en citaten. Het klinkt perfect. Totdat je het nazoekt en ontdekt dat de helft verzonnen is.

Hoe wordt AI Hallucinatie toegepast?

Dat is een AI-hallucinatie. Het model genereert informatie die niet gebaseerd is op feiten, maar die wél geloofwaardig overkomt. Het verzint bronnen die niet bestaan, attributeert uitspraken aan mensen die ze nooit gedaan hebben, of creëert statistieken uit het niets.

Deel:

Besproken in artikelen

Waar lees je meer over AI Hallucinatie op dit platform?