Direct naar inhoud
AI voor MKB

AI voor HR: wat mag wel en waar ligt de grens?

Van cv-screening tot performance reviews — AI kan HR-taken verlichten. Maar juridisch en ethisch liggen er harde grenzen. Wat kun je wél veilig inzetten, en waar moet je oppassen?

FD
Frank DuindamFrank Duindam
Frank DuindamOprichter & hoofdredacteur
Bijgewerkt 6 min leestijd
Abstracte datastroom botst op ethische grenzen

Je hebt tachtig sollicitanten voor één functie. Je wilt nieuwe medewerkers snel inwerken. Je moet tegelijk alle performance reviews voorbereiden. AI klinkt als de oplossing — en voor een deel is dat ook zo. Maar HR is tegelijk een mijnenveld: je werkt met persoonlijke data, discriminatierisico's en regelgeving die niet voor meerdere uitleg vatbaar is.

Dit artikel laat zien waar AI je écht kan helpen in recruitment, onboarding en performance management — en waar je de rem erop moet zetten om juridisch en ethisch binnen de lijntjes te blijven.

Wat mag wel: de veilige AI-toepassingen

Geautomatiseerde documentverwerking in abstracte vormen

Jobdescripties en vacatureteksten schrijven

AI is uitstekend in het opstellen van heldere, aantrekkelijke vacatureteksten. Je geeft een prompt met de functie-eisen, gewenste ervaring en bedrijfscultuur, en je krijgt een concept terug dat je kunt aanscherpen. Dit scheelt je gemakkelijk een uur per vacature.

Let op: controleer altijd of de AI geen vooroordelen binnensmokkelt. Woorden als "energiek", "assertief" of "jong team" kunnen onbedoeld bepaalde groepen ontmoedigen om te solliciteren. Tools als de Gender Decoder (http://gender-decoder.katmatfield.com) helpen je om dit te checken.

Samenvattingen van cv's en motivatiebrieven

Als je honderden sollicitaties moet doorlopen, kan AI je helpen met het samenvatten van cv's: welke ervaring heeft iemand, welke opleidingen, welke skills. Dat geeft je een sneller overzicht, zodat je je tijd kunt besteden aan de kandidaten die het beste passen.

Belangrijke grens: de AI mag samenvatten, niet beslissen. Jij blijft degene die beoordeelt of iemand geschikt is. De AI mag geen score geven, geen ranking maken, geen "fit-percentage" berekenen. Dat is al selectie — en daar begint het risico.

Onboarding-materiaal en trainingsplannen

AI kan je helpen om onboarding-schema's op te stellen, veelgestelde vragen van nieuwe medewerkers te beantwoorden, of een checklist voor de eerste maand te genereren. Je kunt zelfs een chatbot maken die nieuwe collega's door standaardvragen heen loodst: "Waar vraag ik vakantie aan?", "Hoe werkt ons declaratiesysteem?".

Grens: de chatbot mag géén persoonlijke data van de medewerker opslaan die je niet nodig hebt. Houd het algemeen, of vraag expliciet toestemming als je gesprekken wilt loggen voor verbetering.

Performance reviews voorbereiden

AI kan je helpen om feedback te structureren, verbeterpunten helder te formuleren, of een concept-gespreksleidraad te maken. Dat is vooral handig als je moeite hebt met het verwoorden van kritiek of complimenten op een constructieve manier.

Belangrijke nuance: de AI mag niet het oordeel vormen. De beoordeling van een medewerker moet altijd door jou (en eventueel andere leidinggevenden) gebeuren op basis van concrete observaties. AI kan hooguit helpen met het formuleren van wat jij al hebt besloten.

Wat mag absoluut niet: juridische en ethische grenzen

Beschermende grenzen rond mensgerichte AI-systemen

Geautomatiseerde selectie op basis van profielen

Dit is de grootste valkuil: een AI die cv's beoordeelt en automatisch besluit wie wel of niet wordt uitgenodigd voor een gesprek. Dat klinkt efficiënt, maar het is gevaarlijk en vaak illegaal.

Waarom? AI leert van historische data. Als je bedrijf tot nu toe vooral mannen heeft aangenomen, of vooral mensen van een bepaalde leeftijd, dan leert de AI dat dit het "juiste profiel" is. Het systeem gaat dan automatisch kandidaten met een ander geslacht, andere leeftijd of niet-Nederlandse naam lager scoren — zonder dat jij dat doorhebt.

Dit heet indirect onderscheid, en het is verboden onder de Algemene wet gelijke behandeling (AWGB). Het maakt niet uit dat je het niet bewust deed: je bent verantwoordelijk voor wat je systeem doet.

Voorbeeld uit de praktijk: Amazon ontwikkelde in 2018 een recruitmenttool die cv's automatisch beoordeelde. Het systeem bleek vrouwen structureel lager te scoren, omdat de trainingsdata vooral mannelijke cv's bevatte uit een techsector waar weinig vrouwen werkten. Amazon heeft de tool uiteindelijk stopgezet.

Persoonlijke data verwerken zonder toestemming of noodzaak

De AVG (Algemene Verordening Gegevensbescherming) is heel streng over het gebruik van persoonlijke data. Je mag alleen data verwerken die je echt nodig hebt voor het doel (vacature invullen, medewerker beoordelen), en je moet kunnen uitleggen waarom je die data nodig hebt.

Wat betekent dat?

  • Je mag geen cv's uploaden naar een publieke AI-tool (ChatGPT gratis, Gemini zonder privacy-instellingen) zonder expliciete toestemming van de sollicitant. Die data kan immers door de leverancier worden gebruikt voor training.

  • Je mag geen uitgebreide psychologische profielen laten maken door AI, tenzij dat direct relevant is voor de functie én de kandidaat ermee instemt.

  • Je mag geen social media-analyse doen ("wat voor persoon is dit op LinkedIn?") zonder dat de kandidaat weet dat je dat doet.

Veilige route: gebruik enterprise-versies van AI-tools (zoals ChatGPT Team, Claude voor bedrijven, of Microsoft 365 Copilot) die in hun voorwaarden garanderen dat je data niet voor training wordt gebruikt. Of anonimiseer cv's voordat je ze laat samenvatten (naam, adres, geboortedatum verwijderen).

Besluiten die "volledig geautomatiseerd" zijn

Artikel 22 van de AVG verbiedt beslissingen die volledig geautomatiseerd worden genomen en "rechtsgevolgen" hebben voor iemand. Een afwijzing na sollicitatie is zo'n rechtsgevolg.

In de praktijk: je mag AI gebruiken als hulpmiddel bij je beslissing, maar je mag niet zeggen: "De AI heeft beslist, dus deze kandidaat valt af." Er moet altijd menselijke tussenkomst zijn: jij bekijkt de uitkomst, weegt af, en neemt zelf de beslissing.

Dit geldt ook voor performance management: je mag geen AI-scores gebruiken om automatisch te beslissen over ontslag, promotie of salaris. De AI mag adviseren, jij beslist.

Transparantie: vertel wat je doet

Als je AI gebruikt in je recruitment of HR-proces, dan moet je dat melden aan kandidaten en medewerkers. Dat hoeft niet ingewikkeld:

  • "We gebruiken AI om vacatureteksten te schrijven en cv's samen te vatten. Alle beslissingen worden door mensen genomen."

  • "Deze chatbot helpt je met veelgestelde vragen. Je kunt altijd ook direct contact opnemen met HR."

Transparantie schept vertrouwen — en het beschermt je juridisch, omdat je kunt aantonen dat mensen wisten wat er gebeurde.

Checklist: mag jouw AI-gebruik door de beugel?

Voordat je AI inzet voor HR, check het volgende:

  • Menselijke beslissing: neemt een mens de uiteindelijke beslissing, of doet de AI dat?

  • Data-gebruik: verwerk je alleen data die je echt nodig hebt? Heb je toestemming waar nodig?

  • Privacy-garantie: gebruik je een tool die garandeert dat data niet voor training wordt gebruikt?

  • Bias-check: heb je gecontroleerd of de AI geen onbedoelde vooroordelen versterkt?

  • Transparantie: weten kandidaten en medewerkers dat je AI gebruikt?

  • Verantwoording: kun je uitleggen waarom je een bepaalde beslissing hebt genomen, ook als je AI hebt gebruikt?

Als je bij één van deze vragen "nee" of "weet ik niet" antwoordt, dan is het verstandig om eerst juridisch advies in te winnen of je proces aan te passen.

Wat je morgen kunt doen

AI kan HR-processen een stuk efficiënter maken, maar alleen als je het bewust en binnen de kaders gebruikt. Begin klein: laat AI je helpen met vacatureteksten of samenvattingen, maar houd de beslissingen bij jezelf. Controleer of je tools AVG-proof zijn. En bespreek met je team waar jullie de grens leggen.

De simpelste vuistregel: als je niet kunt uitleggen aan een afgewezen kandidaat of medewerker hoe je tot je besluit bent gekomen, dan is je AI-gebruik te ver gegaan.