Direct naar inhoud
Alle termenAI-ethiek, veiligheid & governance

Wat is AI Fairness?

Het principe dat AI-systemen alle mensen en groepen gelijk en rechtvaardig moeten behandelen, zonder onterechte voor- of nadelen te veroorzaken voor bepaalde groepen.

Ook bekend als: Fairness, fairness

Wat is AI Fairness

Wat betekent AI Fairness eigenlijk?

AI Fairness draait om een vraag die simpel klinkt, maar complex is: behandelt een AI-systeem iedereen eerlijk? Stel je voor: een bank gebruikt AI om te bepalen wie een lening krijgt. Als het systeem systematisch mensen uit bepaalde buurten of met bepaalde achtergronden afwijst — terwijl hun kredietwaardigheid vergelijkbaar is — dan is er sprake van oneerlijkheid. AI Fairness is het streven om zulke ongelijke behandeling te voorkomen.

Het lastige is dat 'eerlijk' niet altijd hetzelfde betekent voor iedereen. Moet een AI-systeem elke groep precies evenveel kansen geven? Of juist zorgen dat de uitkomsten voor elke groep evenwichtig zijn? Of moet het individuen beoordelen zonder überhaupt naar groepskenmerken te kijken? Dat zijn verschillende definities van fairness, en ze kunnen met elkaar botsen.

Waarom is dit zo ingewikkeld?

AI-systemen leren van data uit het verleden. Als die data scheef is — bijvoorbeeld omdat in het verleden bepaalde groepen minder vaak werden aangenomen of vaker stopgezet door de politie — dan kan de AI die scheefheid overnemen en versterken. Het model leert patronen, maar weet niet welke patronen eerlijk zijn en welke niet.

Een voorbeeld: een wervingssysteem dat getraind is op CV's van succesvolle werknemers uit het verleden, kan onbewust voorkeur geven aan bepaalde opleidingen, postcodes of namen — simpelweg omdat die vaker voorkwamen in de trainingsdata. Het systeem 'discrimineert' niet bewust, maar reproduceert wel bestaande ongelijkheden.

Dat maakt AI Fairness tot een technisch én maatschappelijk vraagstuk tegelijk: je moet niet alleen meten of een model eerlijk is, maar ook beslissen wat 'eerlijk' betekent in jouw context.

Hoe meten organisaties dit?

Er zijn verschillende manieren om fairness te meten, en ze leiden niet altijd tot dezelfde conclusie:

  • Demografische pariteit: elke groep krijgt evenveel positieve uitkomsten (bijvoorbeeld: 50% van groep A wordt aangenomen, 50% van groep B ook)

  • Gelijke kansen: binnen mensen die daadwerkelijk geschikt zijn, krijgt elke groep evenveel kans

  • Gelijke foutpercentages: het systeem maakt evenveel fouten bij groep A als bij groep B

  • Individuele fairness: vergelijkbare personen krijgen vergelijkbare behandeling, ongeacht hun groep

Het probleem: je kunt vaak niet aan alle definities tegelijk voldoen. Kies je voor gelijke uitkomsten per groep, dan behandel je individuen misschien ongelijk. Kies je voor individuele beoordeling, dan kunnen uitkomsten tussen groepen toch verschillen. Daarom is er geen 'druk op de knop'-oplossing.

Waar kom je het tegen?

AI Fairness speelt overal waar AI-systemen beslissingen nemen over mensen:

  • Werving en HR: systemen die CV's screenen of sollicitatiegesprekken analyseren

  • Financiële diensten: kredietbeoordelingen, verzekeringspremies, hypotheekaanvragen

  • Rechtspraak: risicoschattingen voor recidive (de kans dat iemand opnieuw een strafbaar feit pleegt)

  • Gezondheidszorg: diagnostische hulpmiddelen, triagesystemen, behandeladvies

  • Online platforms: contentmoderatie, advertentietargeting, zoekresultaten

Bedrijven die serieus met AI aan de slag gaan, bouwen fairness-checks in hun ontwikkelproces in: ze testen of het model verschillende groepen anders behandelt, documenteren hun keuzes, en blijven monitoren na lancering.

Tools en frameworks

Er zijn inmiddels open-source tools die helpen bij het meten en verbeteren van fairness:

  • Fairlearn (Microsoft): Python-bibliotheek voor fairness-analyse

  • AI Fairness 360 (IBM): toolkit met metrics en algoritmes

  • What-If Tool (Google): visuele interface om modelgedrag te verkennen

  • Aequitas: tool specifiek voor risico-assessment in rechtspraak en overheid

Daarnaast zijn er richtlijnen zoals de EU AI Act, die voor bepaalde 'hoog-risico' AI-systemen fairness-eisen stelt.

Wat kun je ermee?

Als je een AI-systeem bouwt of inkoopt dat over mensen beslist, is AI Fairness geen 'nice to have' — het is een verantwoordelijkheid. Begin met deze vragen:

  • Welke groepen kunnen verschillend geraakt worden door dit systeem?

  • Welke definitie van fairness past bij mijn toepassing?

  • Hoe test ik of mijn model eerlijk is, en blijf ik dat monitoren?

AI Fairness vraagt om bewuste keuzes en transparantie. Het doel is niet perfectie (die bestaat niet), maar wel het systematisch verkleinen van oneerlijke uitkomsten. Want uiteindelijk bepaalt niet de technologie of iets eerlijk is — dat doe jij.

FAQ

Veelgestelde vragen over AI Fairness

De drie meest gestelde vragen over dit onderwerp, kort beantwoord.

Wat is AI Fairness?

Het principe dat AI-systemen alle mensen en groepen gelijk en rechtvaardig moeten behandelen, zonder onterechte voor- of nadelen te veroorzaken voor bepaalde groepen.

Waarom is AI Fairness belangrijk?

AI Fairness draait om een vraag die simpel klinkt, maar complex is: behandelt een AI-systeem iedereen eerlijk? Stel je voor: een bank gebruikt AI om te bepalen wie een lening krijgt. Als het systeem systematisch mensen uit bepaalde buurten of met bepaalde achtergronden afwijst — terwijl hun kredietwaardigheid vergelijkbaar is — dan is er sprake van oneerlijkheid. AI Fairness is het streven om zulke ongelijke behandeling te voorkomen.

Hoe wordt AI Fairness toegepast?

Het lastige is dat 'eerlijk' niet altijd hetzelfde betekent voor iedereen. Moet een AI-systeem elke groep precies evenveel kansen geven? Of juist zorgen dat de uitkomsten voor elke groep evenwichtig zijn? Of moet het individuen beoordelen zonder überhaupt naar groepskenmerken te kijken? Dat zijn verschillende definities van fairness, en ze kunnen met elkaar botsen.

Deel: