Wat is SHAP?
Een methode die uitlegt welke factoren een AI-beslissing hebben beïnvloed — door te laten zien hoeveel elk kenmerk heeft bijgedragen aan het eindresultaat.

Wat is SHAP eigenlijk?
Stel je voor: een AI-systeem besluit dat jouw hypotheekaanvraag wordt afgewezen. Je wilt weten waarom — maar de AI is een black box. SHAP (afkorting van SHapley Additive exPlanations) is een wiskundige methode die precies kan laten zien welke factoren die beslissing hebben beïnvloed, en hoeveel.
In plaats van te zeggen "de AI vindt van niet", kan SHAP uitleggen: "Je leeftijd droeg -0,3 bij aan het oordeel, je inkomen +0,8, je woonplaats -0,1" — enzovoort. Zo zie je niet alleen wát de AI besloot, maar óók op basis van welke redenen.
Hoe werkt het eigenlijk?
SHAP leent een concept uit de speltheorie: de Shapley-waarde. Oorspronkelijk bedoeld om eerlijk te verdelen hoeveel elk teamlid bijdraagt aan een gezamenlijk resultaat.
Bij SHAP wordt elk kenmerk (leeftijd, inkomen, postcode) behandeld als een "speler". De methode kijkt naar alle mogelijke combinaties van kenmerken en berekent: hoeveel verandert de AI-voorspelling als we dit kenmerk wél of niét meenemen? Het gemiddelde van al die scenario's geeft de "SHAP-waarde" — een cijfer dat aangeeft hoeveel impact dat kenmerk had.
Een voorbeeld uit de praktijk: een zorgverzekeraar gebruikt AI om fraude op te sporen. Met SHAP kunnen ze aan een klant tonen: "De AI markeerde jouw claim omdat het aantal declaraties in korte tijd (SHAP-waarde: +2,1) en de combinatie met een bepaalde zorgverlener (SHAP-waarde: +0,9) opvielen. Je leeftijd en woonplaats speelden nauwelijks mee."
Zo kun je controleren of het systeem op redelijke gronden besluit — of dat het bijvoorbeeld ten onrechte op woonplaats discrimineert.
Waarom zou jij hier iets aan hebben?
Voor iedereen die AI-beslissingen moet kunnen verantwoorden. Denk aan:
Financiële dienstverleners die moeten uitleggen waarom iemand geen lening krijgt
Zorgorganisaties die AI-diagnoses transparant willen maken voor artsen en patiënten
HR-afdelingen die sollicitanten inzicht willen geven in automatische selecties
Overheden die verantwoording moeten afleggen over algoritmes in de publieke sector
SHAP helpt ook bij het opsporen van ongewenste patronen. Als blijkt dat een AI-systeem zwaar leunt op kenmerken als postcode of geslacht — terwijl dat niet de bedoeling was — kun je ingrijpen voordat het misgaat.
Waar kom je het tegen?
SHAP is beschikbaar als open-source Python-bibliotheek en is geïntegreerd in veel AI-platforms en tools:
Microsoft Azure Machine Learning — ingebouwde SHAP-visualisaties
Google Cloud Vertex AI — explainability-features met SHAP
H2O.ai — automatische SHAP-grafieken bij modellen
DataRobot — SHAP-waardes als standaard uitleg-methode
KNIME — SHAP-extensies voor no-code workflows
Daarnaast zie je SHAP terug in wetenschappelijk onderzoek, compliance-rapporten en AI-audits — overal waar transparantie verplicht of gewenst is.
Beperkingen
SHAP is krachtig, maar niet perfect. De berekening kan bij complexe modellen (zoals grote neurale netwerken) traag zijn. En hoewel SHAP laat zien wélke kenmerken belangrijk zijn, vertelt het niet altijd waarom het model die kenmerken zo belangrijk vindt — dat vergt vaak nog menselijke interpretatie.
Bovendien: een SHAP-verklaring maakt een AI-beslissing transparanter, maar niet automatisch eerlijker. Als een model is getraind op data met historische vooroordelen, legt SHAP die vooroordelen bloot — maar lost ze niet op.
Wat kun je er nu mee?
Als je AI inzet in je organisatie en je wilt begrijpen — of aan anderen kunnen uitleggen — hoe beslissingen tot stand komen, is SHAP een van de meest toegankelijke methoden. Het werkt met bijna elk type model en geeft concrete, visualiseerbare antwoorden.
Wil je ermee aan de slag? Begin met de open-source SHAP-bibliotheek, of check of jouw bestaande AI-platform al SHAP-ondersteuning heeft. En onthoud: transparantie is de eerste stap naar verantwoord AI-gebruik — maar niet de laatste.
Veelgestelde vragen over SHAP
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is SHAP?
Een methode die uitlegt welke factoren een AI-beslissing hebben beïnvloed — door te laten zien hoeveel elk kenmerk heeft bijgedragen aan het eindresultaat.
Waarom is SHAP belangrijk?
Stel je voor: een AI-systeem besluit dat jouw hypotheekaanvraag wordt afgewezen. Je wilt weten waarom — maar de AI is een black box. SHAP (afkorting van SHapley Additive exPlanations) is een wiskundige methode die precies kan laten zien welke factoren die beslissing hebben beïnvloed, en hoeveel.
Hoe wordt SHAP toegepast?
In plaats van te zeggen "de AI vindt van niet", kan SHAP uitleggen: "Je leeftijd droeg -0,3 bij aan het oordeel, je inkomen +0,8, je woonplaats -0,1" — enzovoort. Zo zie je niet alleen wát de AI besloot, maar óók op basis van welke redenen.