AI en auteursrecht: wat de grote rechtszaken voor jouw bedrijf betekenen
Wanneer mag je AI-output gebruiken zonder juridische problemen? De uitkomsten van rechtszaken tussen grote namen geven steeds meer antwoord — en die zijn relevant voor elke ondernemer.

De rechtszaal als testlab voor AI-gebruik

Als je AI gebruikt om teksten, afbeeldingen of andere content te maken, speel je op dit moment een beetje met vuur. Want terwijl jij prompts intypt en resultaten downloadt, bepalen rechters wereldwijd wat er wel en niet mag. En dat gebeurt via rechtszaken die miljoenen euro's kosten en jarenlang duren — maar waar jij straks wel de gevolgen van merkt.
Twee zaken staan centraal: The New York Times tegen OpenAI, en Getty Images tegen Stability AI. Ze draaien allebei om dezelfde vraag: mag je auteursrechtelijk beschermd materiaal gebruiken om AI-modellen te trainen, en wie is er aansprakelijk als die modellen output produceren die verdacht veel lijkt op bestaand werk?
Het antwoord op die vraag bepaalt niet alleen de toekomst van AI-bedrijven, maar ook hoe jij AI mag inzetten.
The New York Times vs. OpenAI: wie bezit de training?

Eind 2023 spande The New York Times een rechtszaak aan tegen OpenAI (de maker van ChatGPT) en Microsoft. De aanklacht: OpenAI heeft miljoenen artikelen van de krant gebruikt om GPT te trainen, zonder toestemming en zonder betaling. Volgens de NYT levert dat twee problemen op.
Ten eerste: het model kan soms bijna woordelijk NYT-artikelen reproduceren, vooral als je aangeeft dat je een specifiek stuk zoekt. Dat zou volgens de krant een directe schending van het auteursrecht zijn — alsof je een illegale kopie maakt.
Ten tweede: de NYT claimt dat ChatGPT haar businessmodel ondermijnt. Waarom zou iemand nog een abonnement nemen als je de essentie van artikelen via een chatbot kunt krijgen?
OpenAI verdedigt zich met het principe van fair use — een juridische exceptie in de VS die zegt dat je auteursrechtelijk materiaal mag gebruiken voor nieuwe, transformatieve doeleinden. Denk aan citaten in een recensie, of parodieën. Volgens OpenAI valt het trainen van een AI-model daaronder: je gebruikt de data om iets nieuws te maken (een taalmodel), niet om de originele artikelen te verspreiden.
Op het moment van schrijven loopt de zaak nog. Maar de uitkomst heeft enorme gevolgen. Als de rechter oordeelt dat trainen op auteursrechtelijk werk niet mag zonder toestemming, dan moeten alle grote AI-bedrijven terug naar de tekentafel — of miljoenen betalen aan uitgevers, fotografen, muzikanten en andere makers.
En dat raakt jou ook: als OpenAI of andere leveranciers in juridische problemen komen, kan dat invloed hebben op de diensten die je nu gebruikt. Denk aan prijsstijgingen, beperkingen in functionaliteit, of zelfs het verdwijnen van bepaalde modellen.
Getty Images vs. Stability AI: wie betaalt voor beelden?
De tweede grote zaak speelt zich af in de beeldgeneratie. Getty Images, een van 's werelds grootste stockfotobedrijven, klaagde Stability AI aan — het bedrijf achter Stable Diffusion, een open-source model waarmee je afbeeldingen kunt genereren.
Getty claimt dat Stability AI miljoenen foto's van hun platform heeft gebruikt om het model te trainen, zonder licentie. En niet alleen dat: soms produceert Stable Diffusion beelden met een watermerk dat verdacht veel lijkt op dat van Getty — een teken dat de output direct gebaseerd is op hun materiaal.
Stability AI gebruikt dezelfde verdediging als OpenAI: fair use, en het argument dat het model geen kopieën maakt, maar patronen leert. Een foto van een zonsondergang in Toscane wordt geen exacte kopie, maar inspireert het model om zonsondergangen in een bepaalde stijl te genereren.
Toch ligt hier een complicatie. Getty heeft jarenlang geld verdiend door licenties te verkopen aan bedrijven die hun beelden willen gebruiken. Als een AI-model gratis toegang krijgt tot diezelfde beelden om zelf nieuwe te maken, dan ondermijnt dat hun businessmodel — net zoals bij de NYT.
Ook deze zaak loopt nog, maar inmiddels zijn er soortgelijke rechtszaken in het Verenigd Koninkrijk, Duitsland en andere landen. En de uitkomsten kunnen verschillen: wat in de VS als fair use geldt, is in Europa niet automatisch toegestaan.
Wat betekent dit voor jou als je AI gebruikt?
Goed, de techgiganten vechten hun eigen juridische gevechten uit. Maar wat heeft dat met jou te maken als jij gewoon ChatGPT, Midjourney of DALL·E gebruikt om content te maken?
Hier zijn drie dingen die je nu al kunt meenemen:
1. AI-output is niet automatisch 'van jou'
Als jij een afbeelding laat genereren door een AI-model, ben je niet automatisch de auteursrechthebbende. In veel landen (waaronder Nederland) geldt dat auteursrecht alleen ontstaat als er een menselijke maker is die creatieve keuzes maakt. Een AI maakt die keuzes niet — jij wel, via je prompt, maar of dat genoeg is, is nog onduidelijk.
Dat betekent: als je AI-output commercieel gebruikt (bijvoorbeeld in je marketing, op je website, of in een product dat je verkoopt), loop je een risico. Als later blijkt dat die output te veel lijkt op bestaand werk, kun je aansprakelijk zijn — niet de AI-leverancier.
2. Kies leveranciers die transparant zijn over training
Sommige AI-bedrijven zijn duidelijk over welke data ze gebruiken om hun modellen te trainen. Anderen niet. Als je een tool kiest die openlijk zegt dat ze geen auteursrechtelijk beschermd materiaal zonder toestemming gebruiken (bijvoorbeeld omdat ze werken met licenties of met publiek domein), dan verklein je je risico.
Dat geldt vooral voor beeldgeneratie. Adobe Firefly bijvoorbeeld is getraind op stockbeelden waar Adobe zelf de rechten van heeft, en op publiek domein-materiaal. Daardoor kunnen ze sterker garanderen dat de output geen juridische problemen oplevert.
3. Documenteer je proces
Als je AI-output gebruikt in je bedrijf, houd dan bij hoe je het hebt gemaakt. Welke prompt, welke tool, welke aanpassingen heb je zelf gedaan? Als er ooit een discussie komt over auteursrecht, kun je zo aantonen dat jij creatieve keuzes hebt gemaakt — en dat verhoogt de kans dat jij als maker wordt gezien.
Dat geldt vooral voor tekst: als je ChatGPT gebruikt om een eerste versie van een blogartikel te schrijven, maar je redigeert het vervolgens flink, dan is het eindresultaat sterker jouw werk dan wanneer je de output copy-paste.
De toekomst: licenties of verboden?
De vraag is niet óf deze rechtszaken invloed hebben, maar hoe groot die invloed wordt. Er zijn grofweg twee scenario's:
Scenario 1: licenties worden de norm. AI-bedrijven sluiten deals met uitgevers, stockfotobedrijven, muziekplatforms en andere rechthebbenden. Je betaalt meer voor AI-tools, maar je weet dat de training op een legale manier is gebeurd. Dat is al deels aan de gang: OpenAI heeft deals gesloten met Associated Press en Axel Springer, en Adobe werkt samen met stockfotografen.
Scenario 2: strengere regels. Rechters oordelen dat trainen op auteursrechtelijk materiaal zonder toestemming niet mag. Dat dwingt AI-bedrijven om hun modellen opnieuw te trainen op andere data — wat duur en tijdrovend is. Sommige modellen verdwijnen, andere worden commercieel onhaalbaar. De AI-industrie vertraagt, maar makers krijgen meer controle.
Waarschijnlijk komt het ergens in het midden uit: licenties voor wie het kan betalen, publiek domein-data voor de rest, en discussies die nog jaren doorgaan.
Wat kun je morgen doen?
Hier is waar het concreet wordt. Als je AI gebruikt in je werk, overweeg dan het volgende:
Check de voorwaarden van je AI-tool. Staat er iets over aansprakelijkheid? Sommige leveranciers dekken juridische kosten als hun output problemen oplevert, anderen niet.
Gebruik AI als startpunt, niet als eindproduct. Hoe meer je zelf aanpast, hoe sterker je positie als het gaat om auteursrecht.
Blijf op de hoogte van de rechtszaken. De uitkomsten van NYT vs. OpenAI en Getty vs. Stability bepalen de spelregels voor de komende jaren. Volg ze via nieuwsbronnen of juridische blogs.
Overweeg alternatieven voor risicovolle toepassingen. Als je afbeeldingen nodig hebt voor commerciële doeleinden, kun je beter kiezen voor een tool die duidelijk is over licenties dan voor een goedkope variant waarvan je niet weet hoe die is getraind.
De kern: AI is fantastisch gereedschap, maar op dit moment zit er nog juridische onzekerheid aan vast. Hoe bewuster je daarmee omgaat, hoe kleiner de kans dat jij later verrast wordt door een aangetekende brief.
Lees ook

Hoe open-source AI-modellen het speelveld verandert
Proprietary modellen krijgen concurrentie van alternatieven die je zelf kunt draaien. Wat betekent dat voor jouw keuzevrijheid, kosten en privacy?

EU AI Act: wat de nieuwe regels voor Nederlandse MKB-bedrijven betekenen
De nieuwe Europese wet legt AI-toepassingen op een weegschaal: van 'mag nooit' tot 'gewoon doen'. Wat valt jouw gebruik onder, en welke stappen moet je zetten?

De stille revolutie van AI-agents: van chatbot naar digitale collega
Ze plannen vergaderingen, analyseren data en nemen zelfstandig beslissingen. AI-agents zijn de volgende stap na chatbots — maar wat kunnen ze echt, en waar moet je opletten?