Direct naar inhoud
Alle termenAI-ethiek, veiligheid & governance

Wat is Disparate Impact?

Het onbedoeld grotere nadeel dat een ogenschijnlijk neutrale AI-beslissing voor bepaalde groepen mensen heeft — bijvoorbeeld als een sollicitatie-algoritme toevallig meer vrouwen afwijst dan mannen.

Wat is Disparate Impact

Wat is disparate impact?

Disparate impact gaat over een onbedoeld ongelijk effect. Stel je voor: een bedrijf gebruikt een AI-systeem om cv's te screenen. Het systeem kijkt naar objectieve criteria zoals werkervaring en opleidingen — op papier helemaal eerlijk. Maar als aan het eind van de rit blijkt dat 80% van de afgewezen kandidaten vrouwen zijn terwijl maar 40% van de instroom vrouw is, dan is er sprake van disparate impact. Het systeem discrimineert niet bewust, maar het resultaat is ongelijk verdeeld.

Disparate impact verschilt van directe discriminatie: niemand programmeert "wijs vrouwen af" in het algoritme. Het ontstaat doordat de AI patronen oppikt uit historische data, en die data zelf al scheef verdeeld was. Misschien hadden mannen in het verleden vaker bepaalde functietitels of opleidingen die het systeem nu zwaarder weegt. Of het systeem let op kenmerken die toevallig vaker voorkomen bij bepaalde groepen — zonder dat de makers dat doorhadden.

Hoe ontstaat het?

AI-systemen leren van voorbeelden. Als die voorbeelden eenzijdig zijn, neemt het systeem die scheefheid over. Denk aan:

  • Historische patronen: een kredietalgoritme getraind op data uit de jaren '90, toen vrouwen minder vaak een eigen lening hadden. Het systeem leert: "deze profielen zijn risicovoller".

  • Correlaties die niet causaal zijn: een model merkt dat postcode A vaker wanbetalers heeft, en wijst daar voortaan iedereen af — terwijl de echte oorzaak armoede is, niet de plek. Maar armoede en etniciteit overlappen vaak geografisch, dus ontstaat er ongelijke impact op bepaalde groepen.

  • Proxy-variabelen: het systeem gebruikt schijnbaar neutrale kenmerken (hobby's, studies, vriendenkringen) die sterk samenhangen met leeftijd, geslacht of afkomst. Het discrimineert niet bewust, maar het effect is ongelijk.

Waarom is het relevant?

In veel landen is disparate impact wettelijk problematisch, ook al is er geen kwade bedoeling. In de VS bijvoorbeeld toetst men AI-beslissingen met de "80%-regel": als een groep minder dan 80% slaagkans heeft ten opzichte van de groep met de hoogste slaagkans, kan dat als onrechtmatig worden gezien. In Europa valt het onder de Anti-Discriminatiewet en straks de AI Act: je moet kunnen aantonen dat je systeem geen ongerechtvaardigde ongelijke effecten veroorzaakt.

Voor organisaties betekent dit: je kunt niet volstaan met "we gebruiken geen afkomst of geslacht in ons model". Je moet ook kijken naar het eindresultaat. Worden sommige groepen vaker afgewezen, lager gescoord, of anders behandeld? Zo ja, kun je dat verklaren en rechtvaardigen?

Waar kom je het tegen?

  • Recruitmenttools zoals systemen van HireVue, Pymetrics, of Textio: onderzoeken tonen regelmatig aan dat bepaalde demografische groepen ongelijk door de selectie komen.

  • Kredietbeoordeling (bijvoorbeeld algoritmes van Experian, Equifax, of banken zelf): historisch zijn er gevallen bekend waar postcodes of bestedingspatronen leidden tot lagere limieten voor bepaalde wijken.

  • Risico-assessmenttools in de rechtspraak (zoals COMPAS in de VS): controverse over hogere risicoscores voor bepaalde etnische groepen.

  • Verzekeringspremies bepaald door algoritmes: waar woon je, wat doe je, welke voorkeuren heb je — alles kan leiden tot ongelijke premies zonder directe discriminatie.

  • Advertentietargeting op platforms als Meta of Google: onderzoek heeft uitgewezen dat woningadvertenties niet gelijk aan alle groepen worden getoond, ook zonder expliciete filtering.

Hoe ga je ermee om?

Als je een AI-systeem bouwt of inkoopt dat over mensen beslist, test dan actief op ongelijke uitkomsten. Splits je resultaten uit per relevante groep (leeftijd, geslacht, regio) en kijk of de verhoudingen kloppen. Als je een scheve verdeling ziet, vraag je af: komt dat door een legitieme reden (bijvoorbeeld: ervaring), of door een scheve trainingset of verborgen correlaties?

Juridisch advies en audits door onafhankelijke partijen helpen om je juridisch in te dekken. Technisch kun je werken met fairness constraints tijdens het trainen: het model moet niet alleen accuraat zijn, maar ook binnen acceptabele marges per groep blijven. Dat is altijd een afweging — want soms verbeter je gelijkheid ten koste van nauwkeurigheid, en andersom.

Het belangrijkste: wees je bewust dat "objectieve criteria" niet automatisch leiden tot rechtvaardige uitkomsten. Disparate impact laat zien dat neutraliteit in code nog geen gelijke kansen in de echte wereld garandeert.

FAQ

Veelgestelde vragen over Disparate Impact

De drie meest gestelde vragen over dit onderwerp, kort beantwoord.

Wat is Disparate Impact?

Het onbedoeld grotere nadeel dat een ogenschijnlijk neutrale AI-beslissing voor bepaalde groepen mensen heeft — bijvoorbeeld als een sollicitatie-algoritme toevallig meer vrouwen afwijst dan mannen.

Waarom is Disparate Impact belangrijk?

Disparate impact gaat over een onbedoeld ongelijk effect. Stel je voor: een bedrijf gebruikt een AI-systeem om cv's te screenen. Het systeem kijkt naar objectieve criteria zoals werkervaring en opleidingen — op papier helemaal eerlijk. Maar als aan het eind van de rit blijkt dat 80% van de afgewezen kandidaten vrouwen zijn terwijl maar 40% van de instroom vrouw is, dan is er sprake van disparate impact. Het systeem discrimineert niet bewust, maar het resultaat is ongelijk verdeeld.

Hoe wordt Disparate Impact toegepast?

Disparate impact verschilt van directe discriminatie: niemand programmeert "wijs vrouwen af" in het algoritme. Het ontstaat doordat de AI patronen oppikt uit historische data, en die data zelf al scheef verdeeld was. Misschien hadden mannen in het verleden vaker bepaalde functietitels of opleidingen die het systeem nu zwaarder weegt. Of het systeem let op kenmerken die toevallig vaker voorkomen bij bepaalde groepen — zonder dat de makers dat doorhadden.

Deel: