Wat is Counterfactual?
Een 'wat als'-scenario waarmee je kunt onderzoeken hoe een AI-model anders had beslist als je bepaalde invoer verandert — handig om uit te leggen waarom een systeem iets wel of niet goedkeurt.

Wat is een counterfactual eigenlijk?
Stel je voor: je vraagt een lening aan bij de bank, maar je wordt afgewezen door een AI-systeem. Je wilt weten waarom. Een counterfactual geeft je het antwoord in de vorm van: "Als je inkomen €500 hoger was geweest, had je wél een lening gekregen." Het is een 'wat als'-scenario dat laat zien welke kleine verandering in je situatie tot een andere uitkomst had geleid.
In AI-context is een counterfactual een techniek om het gedrag van een model uit te leggen. In plaats van te zeggen "je inkomen was te laag" (wat vaag is), zegt het systeem precies: "met inkomen X in plaats van Y was de beslissing anders geweest." Dat maakt de werking van het model concreter en helpt je begrijpen welke factoren écht tellen.
Het verschil met andere uitleg-methodes: een counterfactual wijst niet naar het verleden (wat ging er mis?), maar naar een alternatieve versie van je invoer. Het is alsof je een parallelle werkelijkheid laat zien waarin één detail anders is.
Hoe werkt het in de praktijk?
AI-systemen maken beslissingen op basis van patronen in data. Een counterfactual draait één of meer van die invoervariabelen net genoeg om tot een andere uitkomst te komen — en houdt die verandering zo klein mogelijk. Dat laatste is belangrijk: je wilt weten wat de minimale aanpassing is die het verschil maakt.
Een voorbeeld uit de gezondheidszorg: een diagnostisch AI-systeem voorspelt een hoog risico op hart- en vaatziekten. Een counterfactual zou kunnen zijn: "Als je bloeddruk 10 punten lager was, zou je risico van 'hoog' naar 'gemiddeld' gaan." Dat geeft artsen en patiënten een concreet aangrijpingspunt.
In de praktijk worden counterfactuals vaak automatisch gegenereerd door algoritmes die systematisch invoerwaarden variëren totdat de voorspelling omslaat. Ze zoeken de kortste route van "nee" naar "ja" — of andersom.
Waarom zou jij hier iets aan hebben?
Counterfactuals maken AI-beslissingen actionable — ze vertellen je niet alleen wat er gebeurde, maar ook wat je kunt veranderen. Dat is vooral waardevol in situaties waar mensen geraakt worden door geautomatiseerde beslissingen:
Financiële diensten: "Verhoog je spaarsaldo met €2.000 en je kredietaanvraag wordt goedgekeurd."
Recruitment: "Met één extra certificering was je cv doorgestuurd naar de hiring manager."
Verzekeringen: "Als je jaarlijks 2.000 km minder rijdt, daalt je premie met 15%."
Medische AI: "Bij een BMI onder 28 zou de scan geen extra controle aanbevelen."
Voor ontwikkelaars en data scientists zijn counterfactuals ook een manier om bias op te sporen. Als een model iemand afwijst op basis van geslacht of etniciteit — maar een counterfactual laat zien dat alleen dat detail het verschil maakt — weet je dat er iets mis is met de training.
Waar kom je het tegen?
Counterfactuals zitten nog niet standaard in veel consumenten-AI, maar ze komen wel op in:
Explainable AI-tools zoals LIME, SHAP en speciale counterfactual-libraries (bv. Alibi Explain, DiCE)
Regelgeving: de Europese AI Act en GDPR vragen om "recht op uitleg" — counterfactuals zijn een manier om daaraan te voldoen
Onderzoekslabs bij banken, verzekeraars en ziekenhuizen die AI-systemen transparanter willen maken
Customer service chatbots die uitleggen waarom een aanvraag is afgewezen en wat je kunt doen om het te veranderen
Je ziet het vaker in sectoren waar AI-beslissingen grote impact hebben en waar mensen recht hebben op een begrijpelijke toelichting.
Denk er zo over na
Counterfactuals zijn de brug tussen "de computer zegt nee" en "dit kun je doen om ja te krijgen". Ze geven controle terug aan de gebruiker. Als je een AI-systeem bouwt dat beslissingen neemt over mensen — of als je zelf zo'n beslissing krijgt — is een counterfactual het verschil tussen frustratie en inzicht. Het maakt AI van een black box een gesprekspartner.
Veelgestelde vragen over Counterfactual
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is Counterfactual?
Een 'wat als'-scenario waarmee je kunt onderzoeken hoe een AI-model anders had beslist als je bepaalde invoer verandert — handig om uit te leggen waarom een systeem iets wel of niet goedkeurt.
Waarom is Counterfactual belangrijk?
Stel je voor: je vraagt een lening aan bij de bank, maar je wordt afgewezen door een AI-systeem. Je wilt weten waarom. Een counterfactual geeft je het antwoord in de vorm van: "Als je inkomen €500 hoger was geweest, had je wél een lening gekregen." Het is een 'wat als'-scenario dat laat zien welke kleine verandering in je situatie tot een andere uitkomst had geleid.
Hoe wordt Counterfactual toegepast?
In AI-context is een counterfactual een techniek om het gedrag van een model uit te leggen. In plaats van te zeggen "je inkomen was te laag" (wat vaag is), zegt het systeem precies: "met inkomen X in plaats van Y was de beslissing anders geweest." Dat maakt de werking van het model concreter en helpt je begrijpen welke factoren écht tellen.