Wat is Counterfactual Explanation?
Een uitleg die laat zien welke kleine veranderingen in de input tot een andere AI-beslissing zouden leiden — zodat je begrijpt waarom je wél of níét werd goedgekeurd.

Wat is een Counterfactual Explanation?
Stel je voor: je vraagt een hypotheek aan en de bank wijst je af. Frustrerend. Maar wat als het systeem je vertelt: "Als je inkomen €200 hoger was geweest, hadden we je wél goedgekeurd"? Dat is een counterfactual explanation — een uitleg die laat zien welke kleine aanpassingen in jouw situatie tot een andere uitkomst hadden geleid.
Het woord "counterfactual" betekent letterlijk "tegengesteld aan de feiten". Het is een "wat-als"-scenario: wat zou er gebeurd zijn als één ding anders was geweest? In AI-context gebruiken we dit om uit te leggen waarom een model een bepaalde beslissing nam — niet door abstract te vertellen hoe het werkt, maar door concreet te tonen wat er nodig was voor een ander resultaat.
Waarom is dit belangrijk?
AI-modellen — zeker complexe als neural networks — zijn vaak black boxes. Ze geven een uitkomst, maar je weet niet goed waarom. Voor een Netflix-aanbeveling maakt dat niet uit, maar bij een hypotheek, zorgverzekering of sollicitatie wil je weten wat er speelt.
Counterfactual explanations zijn populair omdat ze:
Actionable zijn: je krijgt niet alleen inzicht, maar ook handvatten. "Verhoog je spaargeld met X" isbruikbaarder dan "het model vond je profiel riskant".
Eerlijk aanvoelen: ze tonen de grens tussen ja en nee. Dat helpt vertrouwen opbouwen.
Juridisch relevant zijn: in Europa (AVG/GDPR) heb je recht op uitleg bij geautomatiseerde beslissingen. Counterfactuals zijn een manier om dat te geven.
Hoe werkt het eigenlijk?
Een counterfactual explanation zoekt naar de kleinst mogelijke verandering in je input die tot een andere uitkomst leidt. Stel: een AI wijst je CV af voor een baan. Het systeem kan berekenen: "Als je 2 jaar meer ervaring had, was je wél uitgenodigd." Of: "Als je opleiding niveau X was in plaats van Y, had je 85% kans gehad."
Technisch gezien doorzoekt een algoritme de "buurt" rondom jouw data-punt. Het probeert varianten uit totdat het een versie vindt die net over de beslissingsgrens heen gaat. Die grens is vaak een onzichtbare lijn in het model — counterfactuals maken hem zichtbaar.
Belangrijk: het gaat niet om wat jij moet veranderen (je kunt je leeftijd niet aanpassen), maar om inzicht in het criterium van het model.
Een voorbeeld uit de praktijk
Een zorgverzekeraar gebruikt AI om te beoordelen of iemand extra zorg nodig heeft. Meneer Jansen krijgt te horen: "U komt niet in aanmerking." Frustrerend en onduidelijk.
Met een counterfactual explanation ziet hij: "Als u de afgelopen 6 maanden 3 in plaats van 2 keer de huisarts had bezocht, zou u wél in aanmerking komen." Nu begrijpt hij het criterium — en kan hij eventueel in gesprek met de verzekeraar over waarom dat criterium misschien niet klopt in zijn situatie.
Waar kom je het tegen?
Counterfactual explanations worden steeds vaker ingezet in sectoren waar AI beslissingen neemt over mensen:
Financiële diensten: banken en verzekeraars gebruiken het om afwijzingen uit te leggen (hypotheken, leningen, polissen).
HR-systemen: bij geautomatiseerde CV-screening kunnen werkgevers tonen waarom iemand niet doorging.
Gezondheidszorg: om AI-diagnoses of zorgadviezen begrijpelijker te maken voor artsen en patiënten.
Overheidsdiensten: bij automated decision-making in toeslagen, vergunningen of fraude-detectie.
Ook in AI-tools voor developers vind je libraries die counterfactuals genereren, zoals DiCE (Diverse Counterfactual Explanations) of Alibi Explain. Deze tools helpen data scientists hun modellen uitlegbaarder te maken.
Let op: niet altijd eerlijk
Counterfactuals klinken objectief, maar er zit een addertje onder het gras. Het model kan discriminerende patronen hebben geleerd uit historische data — en die vervolgens netjes uitleggen. "Als je een man was in plaats van een vrouw, had je de baan gekregen" is technisch een correcte counterfactual, maar etisch volstrekt fout.
Daarom is het belangrijk dat counterfactuals gecombineerd worden met bias-detectie en fairness-checks. Uitlegbaarheid alleen maakt een model niet rechtvaardig.
Wat kun jij ermee?
Als je zelf AI-systemen bouwt of inkoopt: vraag of counterfactual explanations mogelijk zijn, zeker bij beslissingen die mensen raken. Het helpt niet alleen bij compliance (AVG, AI Act), maar ook bij vertrouwen en acceptatie.
Als je als burger of klant met AI te maken krijgt: je mag vragen om uitleg. Een goed systeem kan je vertellen wat er nodig was voor een andere uitkomst — en als dat niet kan, is dat vaak een signaal dat er te weinig transparantie is.
Counterfactual explanations maken AI menselijker — niet door het model simpeler te maken, maar door de uitkomst begrijpelijk te houden.
Veelgestelde vragen over Counterfactual Explanation
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is Counterfactual Explanation?
Een uitleg die laat zien welke kleine veranderingen in de input tot een andere AI-beslissing zouden leiden — zodat je begrijpt waarom je wél of níét werd goedgekeurd.
Waarom is Counterfactual Explanation belangrijk?
Stel je voor: je vraagt een hypotheek aan en de bank wijst je af. Frustrerend. Maar wat als het systeem je vertelt: "Als je inkomen €200 hoger was geweest, hadden we je wél goedgekeurd"? Dat is een counterfactual explanation — een uitleg die laat zien welke kleine aanpassingen in jouw situatie tot een andere uitkomst hadden geleid.
Hoe wordt Counterfactual Explanation toegepast?
Het woord "counterfactual" betekent letterlijk "tegengesteld aan de feiten". Het is een "wat-als"-scenario: wat zou er gebeurd zijn als één ding anders was geweest? In AI-context gebruiken we dit om uit te leggen waarom een model een bepaalde beslissing nam — niet door abstract te vertellen hoe het werkt, maar door concreet te tonen wat er nodig was voor een ander resultaat.