Wat is Self-Attention?
Een techniek waarmee een AI-model elk woord in een zin kan afwegen tegen alle andere woorden, om te begrijpen welke woorden het belangrijkst zijn voor de betekenis.

Wat is Self-Attention eigenlijk?
Stel je voor dat je een zin leest: "De kat klom in de boom omdat het bang was voor de hond." Als mens weet je direct dat "het" verwijst naar "de kat", niet naar "de boom" of "de hond". Je weegt automatisch alle woorden af tegen elkaar om de betekenis te snappen.
Self-Attention is een techniek waarmee AI-modellen precies hetzelfde doen. Het is een mechanisme dat elk woord in een tekst laat "kijken" naar alle andere woorden, om te bepalen welke woorden belangrijk zijn voor het begrijpen van de betekenis. Het heet "self" omdat het model naar zichzelf kijkt — naar de woorden die het al heeft gezien.
Hoe werkt het in de praktijk?
Zonder Self-Attention moest een AI-model woorden één voor één verwerken, van links naar rechts. Net zoals wanneer je een boek leest met een stuk karton dat alles bedekt behalve de regel waar je bent — je kunt niet vooruitkijken of terugbladeren.
Met Self-Attention kan het model:
Alle woorden tegelijk bekijken — alsof je de hele pagina in één oogopslag ziet
Gewicht toekennen aan elk woord — "dit woord is nu belangrijk voor het begrijpen van dat woord"
Relaties leggen tussen woorden die ver uit elkaar staan — "het" aan het eind van de zin koppelen aan "kat" aan het begin
Het model berekent voor elk woord een soort "aandachtsscore" ten opzichte van alle andere woorden. Bij "het" in ons voorbeeld krijgt "kat" een hoge score, en "boom" en "hond" een lagere.
Een voorbeeld uit het dagelijks leven
Zeg dat je een chatbot vraagt: "Wat is de hoofdstad van het land waar de Eiffeltoren staat?"
Een ouderwets model zou worstelen, omdat "het land" pas later wordt uitgelegd ("waar de Eiffeltoren staat"). Met Self-Attention kan het model direct zien dat "Eiffeltoren" belangrijke context geeft voor "het land", en die twee aan elkaar koppelen — zelfs al staan er vijf woorden tussen.
Waarom is dit zo belangrijk?
Self-Attention is het hart van moderne taalmodellen. Het zit in de Transformer-architectuur, die de basis vormt voor ChatGPT, Claude, Gemini en vrijwel alle geavanceerde AI-systemen van dit moment. Voor 2017 — toen het Transformer-paper uitkwam — gebruikten modellen vooral sequentiële technieken die woorden één voor één verwerkten. Self-Attention maakte het mogelijk om context veel beter te begrijpen.
De kracht zit hem in:
Lange-afstand relaties — begrijpen hoe woorden aan het begin en eind van een lange tekst met elkaar samenhangen
Parallelle verwerking — alle woorden kunnen tegelijk worden geanalyseerd, wat training en gebruik véél sneller maakt
Flexibele focus — het model leert zelf waar het op moet letten, in plaats van vaste regels te volgen
Waar kom je het tegen?
Je merkt Self-Attention in elk modern taalmodel:
ChatGPT, Claude, Gemini, Copilot — alle grote chatbots gebruiken Transformers met Self-Attention
Vertalers zoals DeepL en Google Translate
Zoeksuggesties die begrijpen wat je bedoelt, ook als je woorden door elkaar haalt
Tekst-naar-beeld modellen zoals DALL-E en Stable Diffusion (daar werkt Self-Attention niet alleen op woorden, maar ook op beeldonderdelen)
Als een AI-systeem goed is in het begrijpen van context en samenhang over meerdere zinnen heen, is de kans groot dat Self-Attention een grote rol speelt.
Wat kun je met deze kennis?
Als je weet hoe Self-Attention werkt, begrijp je waarom moderne AI zo goed is in context begrijpen — en waarom langere, heldere prompts vaak betere resultaten geven. Het model weegt elk woord dat je geeft af, dus hoe meer relevante context, hoe scherper de aandacht op het juiste antwoord. Experimenteer gerust met langere, gedetailleerde vragen: Self-Attention is gebouwd om daar goed mee om te gaan.
Veelgestelde vragen over Self-Attention
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is Self-Attention?
Een techniek waarmee een AI-model elk woord in een zin kan afwegen tegen alle andere woorden, om te begrijpen welke woorden het belangrijkst zijn voor de betekenis.
Waarom is Self-Attention belangrijk?
Stel je voor dat je een zin leest: "De kat klom in de boom omdat het bang was voor de hond." Als mens weet je direct dat "het" verwijst naar "de kat", niet naar "de boom" of "de hond". Je weegt automatisch alle woorden af tegen elkaar om de betekenis te snappen.
Hoe wordt Self-Attention toegepast?
Self-Attention is een techniek waarmee AI-modellen precies hetzelfde doen. Het is een mechanisme dat elk woord in een tekst laat "kijken" naar alle andere woorden, om te bepalen welke woorden belangrijk zijn voor het begrijpen van de betekenis. Het heet "self" omdat het model naar zichzelf kijkt — naar de woorden die het al heeft gezien.