Wat is GPT?
GPT staat voor Generative Pre-trained Transformer — een type AI-model dat tekst kan begrijpen en genereren door patronen in enorme hoeveelheden tekst te leren.

Wat is GPT eigenlijk?
GPT staat voor Generative Pre-trained Transformer. Klinkt ingewikkeld, maar stel je voor dat je een systeem hebt dat miljoenen boeken, artikelen en websites heeft gelezen — en daardoor patronen heeft geleerd over hoe taal werkt. Dat is in een notendop wat GPT doet.
Het generative deel betekent dat het nieuwe tekst kan maken (niet alleen bestaande tekst kopiëren). Het pre-trained stuk houdt in dat het model eerst op een gigantische berg tekst is getraind, voordat het voor specifieke taken wordt ingezet. En Transformer? Dat is de onderliggende technische architectuur — je kunt het zien als de motor die ervoor zorgt dat het model begrijpt hoe woorden met elkaar samenhangen, ook als ze ver uit elkaar staan in een zin.
Hoe werkt het in de praktijk?
Denk aan GPT als een voorspellingsmachine. Je geeft het een stukje tekst (een prompt), en het voorspelt woord voor woord wat er daarna zou kunnen komen — op basis van wat het tijdens zijn training heeft gezien. Het model kijkt niet alleen naar het laatste woord, maar naar de hele context van je vraag of opdracht.
Een voorbeeld: je typt "Geef me drie tips voor een betere nachtrust". Het model analyseert die zin, begrijpt de intentie, en genereert een antwoord dat logisch aansluit — compleet met overzichtelijke tips. Het "weet" niet echt wat slapen is, maar het heeft genoeg teksten over dat onderwerp gezien om een zinvol antwoord samen te stellen.
Waarom is dit relevant voor jou?
GPT-modellen zitten inmiddels overal. Ze helpen bij klantenservice (chatbots die vragen beantwoorden), bij contentcreatie (conceptteksten schrijven), bij programmeren (code suggesties geven), en bij educatie (uitleg op maat). Voor ondernemers betekent dit: taken die voorheen uren kostten, kunnen nu in minuten. Voor professionals: een assistent die 24/7 beschikbaar is voor brainstormen, samenvatten of herschrijven.
Maar GPT is niet perfect. Het kan soms informatie verzinnen (zie ook: Hallucinatie), en het begrijpt niet echt wat het zegt — het herkent patronen, maar heeft geen bewustzijn of intentie. Je moet de output dus altijd checken, vooral bij belangrijke beslissingen.
Waar kom je het tegen?
GPT-technologie zit in verschillende tools en diensten:
ChatGPT (OpenAI) — het bekendste voorbeeld, gebaseerd op GPT-3.5 en GPT-4
Microsoft Copilot — gebruikt GPT-modellen, geïntegreerd in Office en Windows
Jasper, Copy.ai, Writesonic — marketing- en contenttools die GPT-modellen inzetten
GitHub Copilot — programmeerhulp op basis van een variant van GPT (Codex)
Notion AI, Canva Magic Write — productiviteitstools met ingebouwde GPT-functionaliteit
Elke tool heeft zijn eigen aanpak en interface, maar de onderliggende technologie komt vaak uit dezelfde familie.
Wat kun je er nu mee?
Begin klein: gebruik een GPT-tool om een conceptmail te schrijven, een samenvatting van een lang document te maken, of ideeën te genereren voor een project. Let op wat goed werkt en waar je de output moet aanpassen. Experimenteer met verschillende manieren van vragen stellen — hoe specifieker je prompt, hoe bruikbaarder het antwoord. En onthoud: GPT is een gereedschap, geen orakel. Jouw kennis en oordeel blijven onmisbaar.
Veelgestelde vragen over GPT
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is GPT?
GPT staat voor Generative Pre-trained Transformer — een type AI-model dat tekst kan begrijpen en genereren door patronen in enorme hoeveelheden tekst te leren.
Waarom is GPT belangrijk?
GPT staat voor Generative Pre-trained Transformer. Klinkt ingewikkeld, maar stel je voor dat je een systeem hebt dat miljoenen boeken, artikelen en websites heeft gelezen — en daardoor patronen heeft geleerd over hoe taal werkt. Dat is in een notendop wat GPT doet.
Hoe wordt GPT toegepast?
Het generative deel betekent dat het nieuwe tekst kan maken (niet alleen bestaande tekst kopiëren). Het pre-trained stuk houdt in dat het model eerst op een gigantische berg tekst is getraind, voordat het voor specifieke taken wordt ingezet. En Transformer? Dat is de onderliggende technische architectuur — je kunt het zien als de motor die ervoor zorgt dat het model begrijpt hoe woorden met elkaar samenhangen, ook als ze ver uit elkaar staan in een zin.
Besproken in artikelen
Waar lees je meer over GPT op dit platform?

Nederlandstalige AI-modellen: waarom ze ertoe doen en wat ze al kunnen
ChatGPT kan wel Nederlands, maar snapt het ook écht? Ontdek waarom Nederlandse AI-modellen worden ontwikkeld en wat ze nu al presteren.

Medewerkers meenemen in AI-transformatie: voorbij de angst voor banenverlies
De helft van je team denkt straks vervangen te worden door ChatGPT. Hoe verander je die angst in enthousiasme? Met de juiste aanpak wordt AI een hulpmiddel, geen bedreiging.

System prompts: de onzichtbare instructies die alles veranderen
Je typt een vraag in ChatGPT, maar het antwoord wordt al bepaald door instructies die je nooit hebt gezien. Zo werken system prompts — en waarom je ze zelf moet beheersen.