Human-in-the-loop: wanneer kan AI alleen, wanneer moet er een mens bij?
AI kan steeds meer zelfstandig, maar niet alles hoeft of mag geautomatiseerd. Ontdek het framework waarmee je bepaalt wanneer menselijk toezicht verplicht, verstandig of overbodig is.

Je krijgt een mail van je boekhoudsoftware: "We hebben jouw btw-aangifte automatisch voorbereid en ingediend bij de Belastingdienst." Fijn? Of toch een beetje eng? Het antwoord hangt af van hoe je naar risico, omkeerbaarheid en regelgeving kijkt. Want niet elke AI-toepassing mag of hoeft een mens naast zich te hebben.
Het spectrum: van volautomaat tot alleen met toestemming

AI-systemen bestaan in allerlei gradaties van zelfstandigheid. Aan de ene kant: de chatbot die een vergadertijd voorstelt, aan de andere kant: de AI die beslist of iemand in aanmerking komt voor een lening. Het verschil zit niet alleen in technische complexiteit, maar vooral in wat er gebeurt als het misgaat.
Het begrip human-in-the-loop betekent dat een mens actief betrokken blijft bij beslissingen die het systeem neemt. Dat kan op drie manieren:
Human-in-the-loop: de AI doet een voorstel, de mens beslist definitief
Human-on-the-loop: de AI handelt zelfstandig, maar een mens monitort en kan ingrijpen
Human-out-of-the-loop: de AI werkt volledig autonoom, de mens ziet hooguit achteraf een rapportage
De vraag is: welke vorm past bij welke situatie? Daarvoor kijken we naar drie criteria.
Criterium 1: Wat is de impact als het misgaat?

Begin met de simpelste vraag: wat gebeurt er als de AI een fout maakt? Een spelfoutje in een conceptmail is vervelend, maar geen ramp. Een verkeerde medicijndosering is levensgevaarlijk.
Laag risico: routine-taken met beperkte gevolgen. Denk aan het sorteren van binnenkomende e-mails, het genereren van een eerste versie van een nieuwsbrief, of het voorspellen van voorraadniveaus. Hier kan AI vaak zonder mens opereren. Een fout kost tijd of ergernis, maar heeft geen blijvende schade.
Middelhoog risico: beslissingen met financiële of operationele impact. Een offerte die automatisch wordt gegenereerd, een chatbot die klantvragen beantwoordt namens je bedrijf, of een planning die shifts toewijst aan medewerkers. Hier is human-on-the-loop verstandig: de AI doet het werk, maar je checkt steekproefsgewijs of houdt waarschuwingssystemen in de gaten.
Hoog risico: alles wat mensen raakt op essentiële gebieden zoals gezondheid, juridische status, veiligheid of toegang tot voorzieningen. Een AI die sollicitanten beoordeelt, medische diagnoses stelt, of kredietaanvragen afwijst. Hier is human-in-the-loop niet alleen verstandig, maar vaak ook verplicht. De mens neemt de uiteindelijke beslissing, de AI ondersteunt.
Criterium 2: Kun je de beslissing terugdraaien?
Een onderschat criterium is omkeerbaarheid. Sommige beslissingen kun je eenvoudig ongedaan maken, andere niet.
Stel: een AI plant automatisch social media posts in. Gaat er eentje de mist in? Je kunt 'm verwijderen, excuses aanbieden, doordraaien. Vervelend, maar hersteld. Vergelijk dat met een AI die een machine-instructie geeft die tot een defect onderdeel leidt in een productielijn. Of die een patiënt automatisch uitschrijft uit een zorgtraject. Dat is niet zomaar terug te draaien.
Vuistregel: hoe moeilijker een beslissing terug te draaien is, hoe sterker het argument voor menselijk toezicht. Niet omdat de AI per se vaker fouten maakt, maar omdat de gevolgen van een fout veel ernstiger zijn.
Bij onomkeerbare processen wil je een mens die checkt: "Klopt dit écht?" voordat de knop wordt ingedrukt. Bij reversibele processen kan de mens achteraf corrigeren.
Criterium 3: Wat zegt de wet (en wat gaat komen)?
In sommige sectoren en situaties is menselijke betrokkenheid wettelijk verplicht. De EU AI Act, die in fases van kracht wordt, maakt onderscheid tussen verschillende risiconiveaus. Systemen met hoog risico — zoals die gebruikt worden voor recruitment, kredietbeoordeling, of rechtspraak — moeten voldoen aan strenge eisen, waaronder menselijk toezicht.
In Nederland kent de Algemene verordening gegevensbescherming (AVG) al het recht om niet onderworpen te worden aan volledig geautomatiseerde besluitvorming met rechtsgevolgen. Als een algoritme je hypotheekaanvraag afwijst, heb je het recht op menselijke heroverweging.
Ook specifieke sectoren kennen hun eigen regels. In de zorg mag een diagnose niet puur op AI-output worden gebaseerd zonder validatie door een arts. In de financiële sector gelden compliance-eisen voor geautomatiseerde transacties. En in juridische procedures zijn er strikte grenzen aan wat een algoritme mag beslissen.
Let op: regelgeving is in beweging. Wat vandaag mag, kan morgen gebonden zijn aan toetsing. Check daarom altijd de actuele kaders voor jouw sector, bijvoorbeeld via de website van de Autoriteit Persoonsgegevens of brancheorganisaties.
Het afwegingsmatrix in de praktijk
Je kunt deze drie criteria combineren in een simpel beslismodel:
Stel de risicoschaal vast: wat is de maximale schade als het systeem een fout maakt?
Beoordeel omkeerbaarheid: kun je de beslissing makkelijk terugdraaien, of niet?
Check de regelgeving: zijn er wettelijke verplichtingen of sectorale richtlijnen?
Gebaseerd op deze antwoorden kies je:
Volautomatisch (human-out-of-the-loop): laag risico, omkeerbaar, geen regelgeving die het verbiedt
Met monitoring (human-on-the-loop): gemiddeld risico, redelijk omkeerbaar, mogelijk lichte regelgeving
Met expliciete goedkeuring (human-in-the-loop): hoog risico, moeilijk omkeerbaar, of wettelijk verplicht
Een voorbeeld: een AI die automatisch facturen boekt in je administratie kan op "monitoring" staan — je checkt maandelijks of alles klopt. Een AI die namens jou contracten tekent, moet altijd via expliciete goedkeuring.
Waarom "kan AI dit?" de verkeerde vraag is
Technisch kan AI steeds meer zelfstandig. De vraag is niet óf het kan, maar of het moet. Een chatbot kan juridisch advies geven over complexe situaties — maar moet dat zonder waarschuwing dat het geen advocaat vervangt? Een algoritme kan sollicitanten screenen — maar mag dat zonder dat iemand checkt of het geen ongefundeerde bias introduceert?
Human-in-the-loop gaat niet over wantrouwen in technologie. Het gaat over een gezonde verdeling van verantwoordelijkheid. AI is goed in patronen herkennen, snelheid, consistentie. Mensen zijn goed in context begrijpen, ethische afwegingen maken, uitzonderingen herkennen.
De slimste organisaties combineren beide: ze laten AI doen waar het goed in is, en zorgen dat mensen ingrijpen waar het ertoe doet.
Wat kun je morgen doen?
Neem een concrete AI-toepassing in je organisatie — of eentje die je overweegt. Doorloop de drie vragen:
Wat gebeurt er als het misgaat? (impact)
Kun je het terugdraaien? (omkeerbaarheid)
Zijn er regels die het verplichten? (regelgeving)
Schrijf voor jezelf op: moet hier een mens bij, en zo ja, in welke rol? Wil je dat iemand elke beslissing goedkeurt, of volstaat periodieke controle? En wie is die persoon — moet dat een expert zijn, of kan een bredere groep meekijken?
Met die antwoorden heb je geen abstract principe meer, maar een concreet werkmodel. En dat is precies wat human-in-the-loop in de praktijk betekent: niet een technische feature, maar een bewuste ontwerpkeuze.
Lees ook

AVG en AI: de 5 vragen die elk bedrijf zich moet stellen
Je gebruikt AI voor klantcontact of personeelsanalyse. Maar heb je bedacht welke rechtsgrondslag je hebt? En wat doet die chatbot eigenlijk met die data? Concreet verhaal over compliance die verder gaat dan een vinkje.

Bias in AI: waarom je model discrimineert zonder dat je het weet
Je AI-model lijkt perfect te werken, tot iemand erachter komt dat het systematisch bepaalde groepen benadeelt. Hoe ontstaat dit — en belangrijker: hoe voorkom je het?

AI-transparantie verplicht stellen: wat betekent dit voor je bedrijf?
Vanaf dit jaar moet je in sommige gevallen expliciet vermelden wanneer content door AI is gemaakt. We leggen uit wanneer dat moet, hoe je dat doet, en waar je op moet letten.