AI-transparantie verplicht stellen: wat betekent dit voor je bedrijf?
Vanaf dit jaar moet je in sommige gevallen expliciet vermelden wanneer content door AI is gemaakt. We leggen uit wanneer dat moet, hoe je dat doet, en waar je op moet letten.

Misschien heb je het al gezien: steeds vaker staat er onder een plaatje of tekst 'gegenereerd met AI' of 'made with AI'. Dat is geen toeval. De Europese AI-wetgeving — de EU AI Act — verplicht bedrijven en organisaties in bepaalde situaties om helder te maken wanneer ze kunstmatige intelligentie hebben gebruikt.
Dat klinkt misschien als een administratieve last, maar het idee erachter is simpel: mensen moeten kunnen inschatten wat ze zien of lezen. Stel je voor dat je een professionele foto ziet van een product, terwijl die in werkelijkheid door een AI is gegenereerd. Of dat je een klantenreview leest die door een chatbot is geschreven. Zonder labeling weet je niet dat je naar synthetische content kijkt — en dat kan je oordeel beïnvloeden.
In dit artikel leggen we uit wanneer je als ondernemer of professional verplicht bent om AI-gebruik te melden, hoe je dat praktisch aanpakt, en waar je oplettend moet zijn.
Wanneer moet je AI-transparantie tonen?

Niet élke toepassing van AI vereist een label. De EU AI Act maakt onderscheid tussen situaties met verschillende risico's. De transparantieplicht geldt met name voor:
Deepfakes en synthetische media: beelden, video's of audio die door AI zijn gegenereerd en 'echt' lijken. Denk aan een video waarin iemand iets lijkt te zeggen wat hij nooit heeft gezegd, of een foto van een persoon die niet bestaat.
Chatbots en virtuele assistenten: systemen waarmee mensen interacteren alsof het een mens is. Als je klanten chatten met een bot, moeten ze weten dat het geen menselijke medewerker is.
Emotieherkenning en biometrische categorisering: systemen die gevoelens of eigenschappen van mensen proberen af te leiden. Dit soort toepassingen valt onder strengere eisen, inclusief transparantie.
Daarnaast geldt voor andere AI-toepassingen vaak een 'soft disclosure'-eis: het is niet altijd strikt verplicht, maar wel sterk aangeraden om misverstanden te voorkomen.
Voorbeeld uit de praktijk: stel dat je een webshop runt en je gebruikt een AI-tool om productfoto's te genereren. Als die foto's er fotorealistisch uitzien en de klant zou kunnen denken dat het echte productfoto's zijn, dan moet je aangeven dat ze AI-gegenereerd zijn. Gebruik je AI om de achtergrond van een foto aan te passen (bijvoorbeeld: je product op een witte achtergrond zetten), dan ligt dat genuanceerder — afhankelijk van hoe misleidend het zou kunnen zijn.
Hoe ziet zo'n label eruit?
De wetgeving schrijft geen exacte formulering voor, maar je moet het helder en begrijpelijk maken. Een paar voorbeelden:
"Deze afbeelding is gegenereerd met kunstmatige intelligentie"
"Made with AI"
"Deze chatbot wordt aangestuurd door AI — geen menselijke medewerker"
"Dit geluidsfragment is synthetisch en niet gesproken door de afgebeelde persoon"
De melding moet prominent genoeg zijn dat gebruikers het niet over het hoofd zien. Bij een afbeelding betekent dat: een zichtbaar watermerk, bijschrift of disclaimer. Bij een chatbot: een intro-bericht of een permanente indicator bovenaan het chatvenster.
Tip: vergelijk het met de cookiemelding op je website. Die móet je ook niet kunnen missen, omdat het om toestemming en transparantie gaat. Hetzelfde geldt voor AI-labeling.
Waarom deze eis?
De gedachte achter de transparantie-eis is dat AI steeds moeilijker te onderscheiden is van menselijk werk. Een deepfake-video kan zo overtuigend zijn dat je niet meer ziet dat iemand nooit heeft gezegd wat je hoort. Een door AI geschreven review kan zo natuurlijk klinken dat je niet doorhebt dat geen echte klant hem heeft geschreven.
Dat creëert risico's:
Misleiding: mensen nemen beslissingen op basis van informatie waarvan ze denken dat die echt is.
Vertrouwen: als later blijkt dat content AI-gegenereerd was zonder dat dit vermeld stond, voelt dat als bedrog.
Manipulatie: vooral bij politieke of journalistieke content kan synthetische media gevaarlijk zijn als het niet als zodanig wordt gelabeld.
Door transparantie te eisen, wil de EU voorkomen dat AI op grote schaal wordt ingezet om mensen te misleiden — bewust of onbewust.
Praktische stappen voor jouw organisatie
Als je AI gebruikt in je communicatie, marketing of product, neem dan deze checklist door:
1. Inventariseer waar je AI gebruikt Maak een lijstje van alle plekken waar je AI inzet: contentcreatie, klantenservice, beeldmateriaal, nieuwsbrieven, social media. Niet alles vereist een label, maar je moet weten wát je gebruikt.
2. Bepaal welke toepassingen transparantie vereisen Stel jezelf de vraag: zou iemand hier misleid kunnen worden als we niet zeggen dat het AI is? Als het antwoord 'ja' is, dan moet je het labelen. Bij twijfel: beter te veel transparantie dan te weinig.
3. Kies een heldere labelstrategie Besluit hoe en waar je de melding plaatst. Consequentie is belangrijk: als je het bij één AI-gegenereerde afbeelding doet, doe het dan overal.
4. Train je team Zorg dat iedereen die content maakt of plaatst weet wanneer en hoe ze AI moeten labelen. Dit voorkomt dat iemand per ongeluk iets publiceert zonder disclosure.
5. Documenteer je proces Houd bij welke AI-tools je gebruikt, voor welke doeleinden, en hoe je transparantie borgt. Dat helpt niet alleen bij naleving, maar ook als er later vragen komen van klanten of toezichthouders.
Veelgemaakte vragen en misverstanden
"Moet ik ook melden dat ik AI gebruik voor interne processen?" Nee, als de output niet naar buiten gaat en niemand ermee interacteert, hoef je het niet te melden. De eis geldt voor content en systemen die naar klanten, bezoekers of het publiek gaan.
"Geldt dit ook voor spellingscontrole of auto-aanvullen?" Nee, basisfuncties zoals spellingscontrole of suggesties in je teksteditor vallen hier niet onder. Het gaat om content die volledig of grotendeels door AI is gegenereerd.
"Wat als ik AI gebruik om een concept te maken, maar ik pas het daarna zelf nog flink aan?" Dan hangt het af van hoeveel de AI heeft bijgedragen. Als de eindtekst grotendeels van jou is, hoef je het meestal niet te melden. Maar als de basis AI-gegenereerd is en je alleen details hebt aangepast, dan is transparantie wel verstandig.
Wat als je het niet doet?
De EU AI Act legt boetes op aan organisaties die zich niet aan de regels houden. Die kunnen oplopen tot miljoenen euro's of een percentage van de jaaromzet, afhankelijk van de ernst van de overtreding. Maar los van juridische risico's: gebrek aan transparantie schaadt je reputatie. Klanten die erachter komen dat je AI hebt gebruikt zonder het te melden, voelen zich misleid — en dat vertrouwen win je niet snel terug.
Je checklist voor morgen
Als je AI gebruikt in je bedrijf, neem dan deze stappen:
Maak een overzicht van alle plekken waar je AI inzet die naar buiten gaat
Voeg bij deepfakes, chatbots en synthetische media een heldere disclosure toe
Stel een interne richtlijn op: wanneer labelen we, en hoe?
Informeer je team en zorg dat iedereen weet wat de regel is
Houd het simpel en eerlijk: 'gemaakt met AI' volstaat vaak al
Transparantie hoeft niet ingewikkeld te zijn. Het gaat erom dat je eerlijk bent over wat je maakt en hoe. Doe je dat goed, dan bouw je vertrouwen op — en dat is uiteindelijk waardevoller dan welke efficiencywinst dan ook.
Lees ook

AVG en AI: de 5 vragen die elk bedrijf zich moet stellen
Je gebruikt AI voor klantcontact of personeelsanalyse. Maar heb je bedacht welke rechtsgrondslag je hebt? En wat doet die chatbot eigenlijk met die data? Concreet verhaal over compliance die verder gaat dan een vinkje.

Bias in AI: waarom je model discrimineert zonder dat je het weet
Je AI-model lijkt perfect te werken, tot iemand erachter komt dat het systematisch bepaalde groepen benadeelt. Hoe ontstaat dit — en belangrijker: hoe voorkom je het?

Deepfakes en je bedrijf: het risico dat je misschien onderschat
Een verzoek van je CEO om 180.000 euro over te maken. Zijn stem, zijn gezicht, zijn urgentie. Alleen: hij zit op dat moment in een vliegtuig. Wat doe je dan?