Direct naar inhoud
AI-ethiek & regelgeving

Bedrijfsdata in ChatGPT: de stille dataprivacy-risico's

Je medewerkers werken al met AI — maar weet je zeker dat ze geen klantgegevens plakken? Een praktische gids voor veilig ChatGPT-gebruik binnen je organisatie.

FD
Frank DuindamFrank Duindam
Frank DuindamOprichter & hoofdredacteur
Bijgewerkt 6 min leestijd
Datastromen botsen op transparante beveiligingsbarrière

De situatie die zich nu in duizenden bedrijven afspeelt

Gevoelige informatie lost op door digitale lekken

Een marketeer plakt een hele klantendatabase in ChatGPT om segmentaties te laten maken. Een accountant uploadt een contract met vertrouwelijke prijsafspraken om een samenvatting te krijgen. Een HR-manager vraagt het model een ontslagbrief te herschrijven — met naam, functie en reden van vertrek.

Het gebeurt dagelijks, vaak met de beste bedoelingen. En meestal zonder dat iemand doorheeft dat deze data nu op de servers van een extern bedrijf staan, of — erger nog — gebruikt kunnen worden om het AI-model te trainen.

Als je medewerkers ChatGPT gebruiken (of Gemini, Copilot, Claude, of welke tool dan ook), heb je een dataprivacy-vraagstuk. Niet morgen, maar nú. De vraag is niet óf dit risico bestaat, maar hoe je ermee omgaat.

Wat er gebeurt met je data in de gratis versie

Gelaagde beveiligingsstructuur beschermt datastromen

Bij de standaard ChatGPT-versie (gratis of ChatGPT Plus) geldt een simpele regel: alles wat je invoert, kan OpenAI gebruiken om zijn modellen te verbeteren. Dat staat in de gebruikersvoorwaarden. Je kunt dit uitschakelen in je instellingen (onder 'Data Controls'), maar dan moet je er wel actief voor kiezen — en veel gebruikers doen dat niet.

Wat betekent dit concreet? Stel, je plakt een interne memo met je nieuwe productstrategie. Die tekst kan — in geanonimiseerde vorm — onderdeel worden van de trainingsdata waarmee OpenAI zijn volgende modelversie bouwt. Jouw strategie wordt zo indirect onderdeel van de kennis die het model aan anderen geeft.

Nog vervelender: je hebt géén controle over waar die data fysiek worden opgeslagen (servers staan vaak in de VS), wie er toegang toe heeft binnen OpenAI, en hoe lang ze bewaard blijven. Voor veel sectoren — denk aan zorg, financiën, juridische dienstverlening — is dat een onacceptabel risico.

Het verschil met Enterprise-versies

Hier komt het onderscheid met Enterprise- of Business-abonnementen. ChatGPT Enterprise (en vergelijkbare zakelijke varianten van andere aanbieders) belooft:

  • Geen training op jouw data. Wat je invoert, blijft van jou en wordt niet gebruikt om het model te verbeteren.

  • Data-isolatie. Je bedrijfsgegevens worden gescheiden opgeslagen en niet gemengd met die van andere klanten.

  • Beheerderscontrole. IT kan zien wie wat gebruikt, toegang beperken, en logs inzien.

  • Compliance-certificeringen. Vaak zijn deze versies SOC 2- of ISO 27001-gecertificeerd, wat je helpt bij AVG-compliance.

Dat klinkt geruststellend — en voor veel bedrijven is het ook een stuk veiliger dan de gratis versie. Maar zelfs een Enterprise-abonnement lost niet alle problemen op. Je moet nog steeds beleid maken over wat medewerkers mogen invoeren, en hoe je dat handhaaft.

Wat mag wel, wat mag niet?

Hier komt de lastige afweging: je wilt dat je mensen efficiënt werken met AI, maar je kunt niet toestaan dat vertrouwelijke informatie zomaar naar buiten gaat. Een helder dataclassificatiebeleid helpt.

Voorbeelden van wat meestal wél kan (ook in Enterprise):

  • Algemene vragen over best practices, tips voor communicatie, uitleg van concepten

  • Het herschrijven van teksten waarin geen privacygevoelige informatie staat (blogposts, nieuwsbrieven, interne memo's zonder namen of cijfers)

  • Brainstormen over ideeën, strategieën, campagnes — zolang het algemeen blijft

Voorbeelden van wat meestal NIET mag:

  • Klantgegevens: namen, e-mailadressen, telefoonnummers, adressen, klantnummers

  • Personeelsgegevens: salarissen, beoordelingen, medische informatie, BSN-nummers

  • Contractuele details: prijsafspraken, leveringsvoorwaarden, geheimhoudingsclausules

  • Vertrouwelijke bedrijfsinformatie: financiële prognoses, productplannen die nog niet publiek zijn, concurrentiegevoelige data

  • Credentials: wachtwoorden, API-keys, toegangscodes

Een praktische vuistregel: als je het niet in een openbare Slack-groep zou zetten, plak het dan ook niet in een AI-tool. Zelfs niet in een Enterprise-omgeving, want foutjes gebeuren.

Hoe je dit handhaaft in de praktijk

Een beleid op papier is mooi, maar medewerkers lezen het niet — of vergeten het een week later. Je hebt concrete maatregelen nodig.

1. Technische barrières Als je echt zeker wilt zijn dat gevoelige data niet in externe AI-tools belanden, kun je het netwerk zo configureren dat alleen de Enterprise-omgeving toegankelijk is, en de gratis versies geblokkeerd worden. Sommige bedrijven gaan verder en draaien hun eigen AI-modellen on-premise (op eigen servers), zodat data nooit het bedrijfsnetwerk verlaten. Dat is duur en complex, maar voor sectoren met strenge compliance-eisen (denk aan banken, zorgverzekeraars) soms de enige optie.

2. Awareness en training Je IT-afdeling kan niet overal zijn. Veel effectiever is om medewerkers te leren waarom het risico bestaat. Organiseer een korte workshop waarin je voorbeelden laat zien van wat er mis kan gaan. Maak het concreet: "Stel je voor dat een klant zijn eigen naam terugziet in een antwoord dat ChatGPT aan iemand anders geeft — hoe leg je dat uit?" Angst werkt niet, begrip wel.

3. Anonimiseren en data-minimalisatie Soms wil je toch een AI-tool gebruiken op echte data — bijvoorbeeld om een analyse te maken of een rapportage te genereren. Leer medewerkers dan om eerst te anonimiseren. Vervang namen door placeholders ("Klant A", "Medewerker 1"), haal e-mailadressen en telefoonnummers weg, rondt bedragen af. Het kost een paar minuten extra, maar verkleint het risico enorm.

4. Monitoring en logging (in Enterprise) Als je een zakelijk abonnement hebt, gebruik dan de beheerfuncties. Stel alerts in als iemand grote hoeveelheden data uploadt, of als bepaalde gevoelige zoektermen voorbijkomen ("BSN", "wachtwoord", "vertrouwelijk"). Dat is geen surveillance, maar risicomanagement — en het geeft je ook inzicht in hoe je mensen AI eigenlijk gebruiken.

De AVG-kant van het verhaal

Vanuit privacywetgeving is het verhaal helder: als je persoonsgegevens verwerkt met een externe AI-tool, ben jij als werkgever verantwoordelijk. Niet OpenAI, niet Google — jij.

Dat betekent:

  • Je moet een verwerkersovereenkomst hebben met de leverancier (die krijg je meestal automatisch bij een Enterprise-abonnement)

  • Je moet een DPIA (Data Protection Impact Assessment) uitvoeren als je grootschalig gevoelige data verwerkt

  • Je moet kunnen aantonen dat je passende maatregelen hebt genomen om data te beschermen

  • Als er een datalek ontstaat doordat iemand klantgegevens in ChatGPT heeft geplakt, moet je dat binnen 72 uur melden aan de Autoriteit Persoonsgegevens

De gratis versie van ChatGPT heeft geen verwerkersovereenkomst. Gebruik je die toch voor persoonsgegevens, dan ben je formeel in overtreding van de AVG — ook al is de kans op een boete klein, het risico is reëel.

Wat als het toch misgaat?

Eerlijkheid: het gaat weleens mis. Iemand maakt een fout, plakt per ongeluk een Excel-sheet met klantdata, en beseft het pas achteraf.

Wat doe je dan?

  • Laat de medewerker het gesprek onmiddellijk verwijderen in ChatGPT (via de historie)

  • Schakel je privacy officer of IT-security in

  • Beoordeel: ging het om bijzondere persoonsgegevens (gezondheid, strafrechtelijke gegevens)? Dan is het mogelijk meldingsplichtig bij de AP

  • Leer ervan: pas je beleid aan, geef extra training, overweeg technische blokkades

Paniek helpt niet — maar bagatelliseren ook niet. Neem het serieus, documenteer wat je gedaan hebt, en zorg dat het niet nóg een keer gebeurt.

Drie vragen om jezelf te stellen

Of je nu een eenmanszaak bent of een middelgroot bedrijf: deze drie checks helpen je vooruit.

  1. Weet ik wie in mijn organisatie AI-tools gebruikt, en waarvoor? Zo niet, start een inventarisatie. Vraag het gewoon rond.

  2. Hebben we heldere richtlijnen over wat wel en niet mag? Liever een A4'tje met voorbeelden dan een juridisch document van twintig pagina's dat niemand leest.

  3. Is onze huidige AI-setup AVG-proof als de inspectie langskomt? Kun je aantonen dat je verwerkersovereenkomsten hebt, dat medewerkers getraind zijn, dat logs beschikbaar zijn? Zo niet: dit is je prioriteit.

AI is niet meer weg te denken uit het dagelijks werk — en dat is goed. Maar net zoals je geen klantdatabase op een USB-stick op straat laat slingeren, laat je bedrijfsdata ook niet zomaar in een extern chatvenster achter. Met de juiste afspraken en een beetje gezond verstand voorkom je de meeste risico's.