AI-training op jouw data: wie is de eigenaar van de output?
Je bedrijfsdata verdwijnt in een AI-model en komt er getransformeerd weer uit. Maar wie bezit dan eigenlijk wat? Over een juridische grijze zone die steeds relevanter wordt.

Een model dat op jouw data leert — wie bezit het resultaat?

Stel je voor: je bedrijf levert maandenlang data aan een AI-leverancier om een taalmodel te fine-tunen voor jouw specifieke sector. Het model wordt scherper, sneller, relevanter. Vervolgens gebruikt die leverancier datzelfde model — getraind op jouw input — voor een concurrent. Of je krijgt output die verdacht veel lijkt op teksten die je zelf hebt aangeleverd. Mag dat zomaar?
De vraag wie eigenaar is van wat in de AI-keten, is juridisch nog lang niet uitgekristalliseerd. Contracten lopen uiteen, jurisprudentie is schaars, en de techniek evolueert sneller dan de wetgeving. Toch is dit geen academische discussie: het raakt intellectueel eigendom, concurrentiepositie en contractuele aansprakelijkheid. Tijd om uit te zoeken waar je staat.
Drie partijen, drie eigendomsvragen

In een AI-trainingstraject zijn er minstens drie 'dingen' waarvan het eigenaarschap ter discussie kan staan:
De input-data — de ruwe gegevens die je aanlevert (documenten, klantinteracties, interne kennisbanken)
Het getrainde model — de parameters, gewichten en architectuur die voortkomen uit het trainingsproces
De output — de teksten, analyses of voorspellingen die het model genereert op basis van een prompt
Elke laag heeft een andere juridische status. En in de praktijk hangt alles af van wat er in het contract staat — of juist níét staat.
Input: jouw data blijft van jou (meestal)
De data die je aanlevert, blijft in principe jouw eigendom. Dat geldt zeker voor bedrijfsgevoelige informatie die je in een fine-tuning-traject inbrengt. De meeste serieuze AI-leveranciers claimen geen eigendom over klantdata en beloven deze niet te gebruiken voor andere doeleinden dan overeengekomen.
Maar let op de kleine lettertjes. Sommige contracten bevatten een brede licentie: je geeft de leverancier toestemming om je data te "gebruiken voor modelverbetering" of "ter optimalisatie van de dienstverlening". Dat klinkt onschuldig, maar kan betekenen dat jouw sectorspecifieke jargon, klantcases of interne processen indirect in het algemene model terechtkomen — en dus beschikbaar worden voor andere klanten.
Een voorbeeld: een advocatenkantoor levert contractsjablonen aan om een legal AI te trainen. Als de leverancier die templates mag gebruiken om het onderliggende basismodel te verbeteren, kunnen concurrerende kantoren straks profiteren van dezelfde juridische patronen. Juridisch wellicht toegestaan, strategisch niet wenselijk.
Praktisch advies: vraag expliciet naar een "no cross-use" clausule. Sommige leveranciers bieden dedicate modellen aan waarbij je data volledig geïsoleerd blijft. Dat kost meer, maar geeft controle.
Het model: grijs gebied met grote gevolgen
Het getrainde model zelf is juridisch de meest complexe laag. In veel contracten blijft het model eigendom van de leverancier, ook als het volledig op jouw data is getraind. Jij betaalt voor toegang (een licentie), niet voor eigendom.
Dat wordt interessant als je veel tijd en geld hebt geïnvesteerd in een custom model. Stel dat je de samenwerking beëindigt: kun je het model dan meenemen? Of kun je eisen dat de leverancier het model vernietigt, zodat een concurrent er niet mee verder kan?
In de meeste standaardcontracten: nee. Het model blijft van de leverancier, tenzij je expliciet hebt onderhandeld over een "model buyout" of exclusiviteit. Dat komt in de praktijk zelden voor, behalve bij zeer grote klanten.
Een ander scenario: je bouwt intern een model met open-source tooling (bijvoorbeeld op basis van een Llama- of Mistral-variant) en traint het op bedrijfsdata. Wie is dan eigenaar? Jij, in principe — maar let op de licenties van de onderliggende basismodellen. Sommige open-source licenties vereisen dat afgeleide modellen ook open-source blijven. Anderen (zoals Meta's Llama-licentie tot voor kort) bevatten gebruiksbeperkingen voor bedrijven boven een bepaalde omvang.
Praktisch advies: als je een strategisch model bouwt, laat een jurist de licenties van alle componenten (basismodel, libraries, datasets) checken voordat je investeert.
Output: auteursrechtelijk niemandsland
De output van een AI-model — een gegenereerde tekst, een samenvatting, een vertaling — heeft in Nederland en de EU geen auteursrechtelijk beschermd auteur. Auteursrecht vereist een "menselijke schepping met een persoonlijk stempel". Een model maakt geen creatieve keuzes in auteursrechtelijke zin; het berekent statistische waarschijnlijkheden.
Dat betekent: output die volledig door AI is gegenereerd, valt (nog) niet onder auteursrecht. Niemand is "eigenaar" — tenzij je de output flink bewerkt en je eigen creatieve laag toevoegt.
Voor contractuele afspraken maakt dat weinig uit: je kunt in een overeenkomst vastleggen dat alle door het model gegenereerde output eigendom wordt van de opdrachtgever. Veel AI-leveranciers doen dat ook ("you own the output"). Maar auteursrechtelijk is het een papieren tijger: je kunt anderen niet verbieden dezelfde output te genereren met een vergelijkbare prompt.
Een praktisch probleem ontstaat als de output verdacht veel lijkt op bestaande werken. Modellen kunnen soms letterlijk teksten reproduceren die in de trainingsdata zaten. Als jij die output commercieel gebruikt en het blijkt een vrijwel exacte kopie van een auteursrechtelijk beschermd werk, kun jij aansprakelijk worden gesteld — ook al was je te goeder trouw.
Praktisch advies: gebruik plagiaatdetectie of bronverificatie bij output die je extern publiceert. En als je output commercieel exploiteert (bijvoorbeeld een door AI geschreven boek), leg contractueel vast dat de leverancier garandeert dat de trainingsdata geen inbreukmakend materiaal bevat — of dat ze aansprakelijk zijn als dat wel het cas is.
Wat als je competitor hetzelfde model gebruikt?
Een scenario dat regelmatig opduikt: je hebt een fine-tuned model, maar de leverancier biedt diezelfde fine-tuning-service aan een concurrent aan. Juridisch is dat meestal toegestaan, tenzij je exclusiviteit hebt bedongen.
Exclusiviteit is duur en zeldzaam. Wat je wél kunt doen: afspraken maken over "use case isolatie". Dat betekent dat de leverancier jouw sectorspecifieke patterns niet mag hergebruiken voor andere klanten in dezelfde branche. Sommige enterprise-contracten bevatten dit als standaardoptie.
Daarnaast: documenteer goed wát je hebt aangeleverd. Als een concurrent straks verdacht vergelijkbare output krijgt, wil je kunnen aantonen dat die kennis van jouw data afkomstig moet zijn — ook al is het juridisch lastig hard te maken.
Drie vragen om morgen aan je leverancier te stellen
Als je met een AI-leverancier werkt of gaat werken:
Mag je onze data gebruiken om het algemene model te verbeteren? Zo ja, kun je dat uitsluiten?
Wat gebeurt er met het model als we stoppen? Blijft het bestaan? Kunnen anderen ermee verder?
Wie is aansprakelijk als de output inbreuk maakt op rechten van derden? Staat dat in het contract?
Die antwoorden bepalen niet alleen je juridische positie, maar ook je strategische speelruimte. Want data is niet zomaar input — het is concurrentievoordeel. En wie controle heeft over het model, heeft controle over de waarde die eruit voortkomt.
Lees ook

AVG en AI: de 5 vragen die elk bedrijf zich moet stellen
Je gebruikt AI voor klantcontact of personeelsanalyse. Maar heb je bedacht welke rechtsgrondslag je hebt? En wat doet die chatbot eigenlijk met die data? Concreet verhaal over compliance die verder gaat dan een vinkje.

Bias in AI: waarom je model discrimineert zonder dat je het weet
Je AI-model lijkt perfect te werken, tot iemand erachter komt dat het systematisch bepaalde groepen benadeelt. Hoe ontstaat dit — en belangrijker: hoe voorkom je het?

AI-transparantie verplicht stellen: wat betekent dit voor je bedrijf?
Vanaf dit jaar moet je in sommige gevallen expliciet vermelden wanneer content door AI is gemaakt. We leggen uit wanneer dat moet, hoe je dat doet, en waar je op moet letten.