Wat is Transformer?
Een neuraal netwerkontwerp dat tekst begrijpt door woorden in context te bekijken, in plaats van ze één voor één te verwerken. De technologie achter ChatGPT en bijna alle moderne taalmodellen.

Hoe werkt het eigenlijk?
Stel je voor dat je een zin leest: "De bank bij de rivier was nat." Je begrijpt meteen dat 'bank' hier een zitmeubel is, niet een financiële instelling. Hoe weet je dat? Door naar de andere woorden te kijken — 'rivier' en 'nat' geven context.
Een Transformer doet iets vergelijkbaars. Het is een type neuraal netwerk dat tekst analyseert door elk woord tegelijk te bekijken in relatie tot alle andere woorden. Dat heet 'attention' — het systeem leert waar het z'n aandacht op moet richten.
Oudere systemen lazen tekst lineair, woord voor woord, zoals je een boek leest. Een Transformer ziet de hele zin in één keer, als een puzzel waarbij elk stukje helpt de andere stukjes te begrijpen. Dat maakt het veel sneller en beter in het begrijpen van context.
Het werkt via twee grote blokken:
Encoder: analyseert de input (bijvoorbeeld een vraag) en zoekt verbanden tussen woorden
Decoder: genereert de output (bijvoorbeeld een antwoord) op basis van die analyse
Sommige modellen gebruiken alleen de encoder (voor tekstanalyse), andere alleen de decoder (voor tekstgeneratie), en weer andere gebruiken beide.
Het slimme zit 'm in die 'attention'-laag: het model leert zelf welke woorden belangrijk zijn voor elkaar. Bij "De appel viel niet ver van de boom" leert het dat 'appel' en 'boom' hier bij elkaar horen, ook al staan er vijf woorden tussen.
Waarom was dit zo'n doorbraak?
Voor 2017 werkten AI-modellen voornamelijk met recurrent neural networks (RNN's) — systemen die tekst woord voor woord verwerkten, zoals iemand die leest met een vinger onder de regel. Dat had twee grote nadelen:
Traag: je moest wachten tot elk woord verwerkt was voordat je aan het volgende kon beginnen
Vergeetachtig: bij lange teksten raakte het model de draad kwijt, zoals jij misschien het begin van deze zin al half vergeten bent tegen het einde
De Transformer loste beide problemen op door alles parallel te verwerken. Daardoor konden onderzoekers ineens veel grotere modellen trainen op veel meer data. Het resultaat? Binnen vijf jaar gingen we van simpele chatbots naar systemen die teksten schrijven, code maken en complexe vragen beantwoorden.
Een voorbeeld uit de praktijk
Als je ChatGPT vraagt: "Wat is de hoofdstad van het land waar de Eiffeltoren staat?", moet het model drie dingen snappen:
"Eiffeltoren" verbinden met "Frankrijk"
"het land" begrijpen als verwijzing naar Frankrijk
"hoofdstad" koppelen aan Parijs
Een Transformer doet dit door attention-gewichten te berekenen: het kijkt hoe sterk elk woord met elk ander woord samenhangt. Het woord "Eiffeltoren" krijgt een hoge attention-score bij "land", en "hoofdstad" krijgt een hoge score bij de impliciete verwijzing naar Frankrijk.
Bij het genereren van het antwoord gebruikt het dezelfde techniek: elk nieuw woord wordt gekozen op basis van alle voorgaande woorden, niet alleen het laatste.
Waar kom je het tegen?
Praktisch alle moderne taalmodellen zijn gebaseerd op de Transformer-architectuur:
ChatGPT (OpenAI) — de GPT staat voor "Generative Pre-trained Transformer"
Claude (Anthropic) — gebruikt een variant op de originele Transformer
Gemini (Google) — eveneens Transformer-gebaseerd
LLaMA (Meta) — open-source Transformer-modellen
BERT (Google) — gebruikt alleen het encoder-deel voor tekstanalyse
Copilot (Microsoft/GitHub) — voor code-assistentie
Ook buiten tekstverwerking zie je Transformers: voor beeldherkenning (Vision Transformers), muziekgeneratie en zelfs voorspelling van eiwitstructuren in de biologie.
Wat betekent dit voor jou?
Als je met AI-tools werkt, gebruik je waarschijnlijk dagelijks Transformer-technologie zonder het te weten. Begrijpen hoe het werkt helpt je de mogelijkheden én beperkingen te snappen: deze systemen zijn briljant in het vinden van patronen en context, maar ze 'begrijpen' niet echt zoals jij dat doet — ze rekenen kansen uit op basis van enorme hoeveelheden voorbeeldtekst.
Wil je dieper duiken? Zoek naar het originele onderzoekspaper "Attention is All You Need" van Vaswani et al. uit 2017 — daar begon het allemaal. Of experimenteer gewoon met de tools: hoe beter je snapt dat ze werken via context en patronen, hoe slimmer je je prompts kunt formuleren.
Veelgestelde vragen over Transformer
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is Transformer?
Een neuraal netwerkontwerp dat tekst begrijpt door woorden in context te bekijken, in plaats van ze één voor één te verwerken. De technologie achter ChatGPT en bijna alle moderne taalmodellen.
Waarom is Transformer belangrijk?
Stel je voor dat je een zin leest: "De bank bij de rivier was nat." Je begrijpt meteen dat 'bank' hier een zitmeubel is, niet een financiële instelling. Hoe weet je dat? Door naar de andere woorden te kijken — 'rivier' en 'nat' geven context.
Hoe wordt Transformer toegepast?
Een Transformer doet iets vergelijkbaars. Het is een type neuraal netwerk dat tekst analyseert door elk woord tegelijk te bekijken in relatie tot alle andere woorden. Dat heet 'attention' — het systeem leert waar het z'n aandacht op moet richten.