Direct naar inhoud
Weetjes & achtergrond

Waarom AI soms met vol vertrouwen volledig fout zit

Je vraagt ChatGPT om een overzicht van je rechten als huurder, en het antwoord klinkt overtuigend. Tot je advocaat zegt: dit klopt van geen kanten. Hoe kan dat?

FD
Frank DuindamFrank Duindam
Frank DuindamOprichter & hoofdredacteur
Bijgewerkt 5 min leestijd
Gebroken spiegel met gefragmenteerde datastromen symboliseert AI-hallucinaties

Je stelt een vraag aan een AI-tool. Het antwoord komt razendsnel, klinkt professioneel en is zelfs netjes opgemaakt met bulletpoints. Je denkt: dit is handig. Tot iemand erop wijst dat de informatie gewoon niet klopt. Of erger: je ontdekt het pas nádat je ernaar hebt gehandeld.

Dit heet een hallucinatie. En het is geen bug die binnenkort wordt opgelost — het zit in de manier waarop deze systemen werken. Begrijpen waarom AI hallucineren helpt je om ze veiliger te gebruiken.

Wat is een hallucinatie precies?

Glanzend oppervlak met barstjes toont schijnzekerheid van AI-antwoorden

Een hallucinatie is het moment waarop een AI-systeem informatie verzint die niet waar is, maar het wel presenteert alsof het een feit is. Geen twijfel, geen voorbehoud — gewoon een vlot antwoord dat overtuigend klinkt maar nergens op gebaseerd is.

Denk aan een AI die een niet-bestaand wetenschappelijk artikel citeert, compleet met auteursnamen en publicatiejaar. Of aan een systeem dat zegt dat een bepaalde medicijninteractie veilig is, terwijl dat absoluut niet zo is. Het vervelende: je ziet het verschil niet aan het antwoord zelf.

Het woord 'hallucinatie' klinkt dramatisch, maar het dekt de lading. De AI ziet iets dat er niet is — net zoals een mens tijdens een hallucinatie dingen waarneemt die niet echt zijn.

Waarom gebeurt dit?

Doorschijnende lagen tonen tegenstrijdige werkelijkheden en verificatieproblemen

Om te begrijpen waarom AI hallucineren, moet je eerst snappen hoe ze werken. Een taalmodel zoals GPT, Claude of Gemini is in de basis een gok-machine. Het is getraind op enorme hoeveelheden tekst en heeft geleerd welke woorden waarschijnlijk na elkaar komen.

Stel je voor: je typt "de hoofdstad van Frankrijk is" en het systeem vult aan met "Parijs". Dat doet het niet omdat het weet wat een hoofdstad is of waar Frankrijk ligt. Het heeft simpelweg geleerd dat die combinatie van woorden vaak voorkomt in de trainingsdata.

Dat werkt prima voor veelvoorkomende vragen. Maar bij specifiekere of zeldzamere onderwerpen wordt het gokken. Het systeem kiest dan het meest waarschijnlijk klinkende antwoord — ook als dat antwoord nergens op gebaseerd is.

Een ander probleem: het model is getraind om altijd een antwoord te geven. "Ik weet het niet" staat niet in het DNA van deze systemen. Ze zijn gemaakt om behulpzaam te zijn, niet om toe te geven dat ze iets niet weten. Dus als ze geen duidelijk antwoord hebben, improviseren ze.

Wanneer is de kans op hallucinaties het grootst?

Niet alle situaties zijn even risicovol. Er zijn een paar momenten waarop je extra alert moet zijn:

Bij heel specifieke informatie. Vraag je naar een obscure rechtszaak uit 1987, een zeldzame medicijninteractie of een technische standaard uit jouw nichesector? Dan is de kans groot dat het systeem te weinig trainingsdata heeft en gaat gokken.

Bij cijfers en data. Modellen zijn niet gebouwd om te rekenen of databases te doorzoeken. Ze geven cijfers die plausibel klinken, maar die kunnen ze net zo goed verzonnen hebben. Vraag je naar "hoeveel werknemers heeft bedrijf X in 2024?", check het altijd.

Bij bronvermelding. Vragen om een bron is riskant. AI-systemen verzinnen makkelijk titels, auteurs, URL's en publicatiejaren die overtuigend klinken maar niet bestaan.

Bij recent nieuws. De meeste modellen zijn getraind op data tot een bepaalde datum. Vragen over gebeurtenissen daarna kunnen leiden tot antwoorden die zijn gebaseerd op verouderde kennis of pure giswerk.

Bij lokale of regionale kennis. Wetgeving, regelgeving en procedures verschillen per land, provincie of zelfs gemeente. Een AI traint op internationale data en gokt vaak bij lokale details.

Hoe herken je een hallucinatie?

Het lastige is: je ziet het verschil niet direct. Een verzonnen antwoord ziet er precies hetzelfde uit als een correct antwoord. Toch zijn er signalen waar je op kunt letten:

Te glad, te overtuigend. Wantrouw antwoorden die nul nuance tonen. Echte expertise erkent grijs gebied, uitzonderingen en onduidelijkheid. Als een AI zegt "dit is altijd zo" bij een complexe vraag, wees dan sceptisch.

Details die je niet kunt checken. Een AI die zegt "volgens onderzoek van de Universiteit van Amsterdam uit 2023" maar geen titel of link geeft? Ga dat zelf opzoeken voor je het gelooft.

Inconsistenties. Stel dezelfde vraag op een net iets andere manier. Krijg je andere antwoorden? Dan is het systeem aan het gokken.

Gebrek aan bronnen bij feiten. Bij elke bewering die belangrijk is voor jouw beslissing, vraag jezelf af: waar komt dit vandaan? Een AI kan die vraag meestal niet beantwoorden.

Wat kun je eraan doen?

Hallucinaties zijn geen reden om AI niet te gebruiken, maar wel om anders met de output om te gaan. Zie AI als een creatieve assistent die snel concepten maakt, maar niet als een betrouwbare bron van feiten.

Check cruciale informatie altijd. Medisch advies, juridische info, financiële beslissingen, technische specs — als het ertoe doet, controleer het via een onafhankelijke bron.

Gebruik AI voor brainstormen, niet voor waarheidsvinding. Laat het je helpen nadenken, ideeën genereren, teksten redigeren. Maar ga niet naar een AI voor antwoorden op vragen waar je zelf het antwoord niet zou kunnen controleren.

Vraag om onderbouwing. Als een AI een feit noemt, vraag dan expliciet: waar komt dit vandaan? Vaak zul je merken dat het systeem dan toegeeft dat het geen bron heeft, of een verzonnen bron noemt die je direct kunt ontmaskeren.

Combineer met eigen kennis. AI werkt het beste als aanvulling op wat je zelf al weet. Als een antwoord totaal niet strookt met jouw beeld van de werkelijkheid, vertrouw dan op jezelf.

Gebruik tools met verificatie. Sommige nieuwere systemen hebben toegang tot zoekmachines of databases en kunnen antwoorden onderbouwen met echte bronnen. Dat vermindert het risico, maar lost het niet helemaal op.

Blijf kritisch

AI-tools worden snel beter, maar hallucinaties verdwijnen niet zomaar. Ze zijn onderdeel van hoe deze technologie werkt. Het mooie is: als je begrijpt waarom ze gebeuren, kun je ze herkennen en ermee omgaan.

De belangrijkste vraag die je jezelf kunt stellen is: zou ik dit antwoord ook geloven als een wildvreemde op straat het me vertelde? Waarschijnlijk niet. Behandel AI met hetzelfde gezonde wantrouwen.