Wat is Embedding?
Een manier om woorden, zinnen of andere data om te zetten in rijtjes getallen, zodat AI kan rekenen met betekenis — woorden die op elkaar lijken krijgen vergelijkbare cijfers.

Wat is een embedding eigenlijk?
Stel je voor dat je een computer wilt uitleggen wat woorden betekenen. Je kunt niet gewoon zeggen "hond is een huisdier" — een computer snapt alleen maar getallen. Dus verzinnen we een slimme truc: we geven elk woord een rijtje getallen mee. Bijvoorbeeld: "hond" wordt [0.8, 0.2, 0.6], "kat" wordt [0.7, 0.3, 0.5], en "auto" wordt [0.1, 0.9, 0.2].
Dat rijtje getallen heet een embedding. Het bijzondere is: woorden die qua betekenis op elkaar lijken, krijgen getallen die ook op elkaar lijken. "Hond" en "kat" hebben vergelijkbare cijfers, maar "auto" staat er ver vanaf. Zo kan de computer ineens "voelen" dat honden en katten meer gemeen hebben dan honden en auto's.
In plaats van drie getallen gebruiken moderne AI-systemen vaak honderden of zelfs duizenden getallen per woord — dat geeft veel meer nuance. Elke plek in dat rijtje vat een bepaald aspect van de betekenis samen: misschien gaat getal 1 over "levend of niet", getal 2 over "groot of klein", enzovoort. Niemand programmeert die betekenis handmatig — het AI-model leert die patronen vanzelf door miljoenen teksten te lezen.
Hoe werkt het in de praktijk?
Als jij een zin intypt in ChatGPT of een andere chatbot, gebeurt er eerst dit: elk woord wordt omgezet naar zijn embedding. Die rijtjes getallen gaan vervolgens door het neurale netwerk heen, dat ermee rekent alsof het wiskundige puzzels oplost. Aan het einde komen er weer embeddings uit, die worden terugvertaald naar gewone woorden — en dat is je antwoord.
Embeddings werken niet alleen voor woorden. Je kunt ook hele zinnen, alinea's, afbeeldingen, geluiden of zelfs producten in een webshop omzetten naar zo'n getallenreeks. Een zoekfunctie kan dan producten vinden die betekenismatig op je zoekopdracht lijken, niet alleen letterlijk dezelfde woorden bevatten.
Een mooi voorbeeld: je zoekt "comfortabele schoenen voor lange wandelingen". Met embeddings kan de zoekfunctie ook "stevige wandelschoenen met goede demping" vinden, ook al staat het woord "comfortabel" er niet letterlijk in. De embeddings van beide zinnen liggen dicht bij elkaar in die abstracte getallenruimte.
Waarom zijn embeddings zo belangrijk?
Zonder embeddings zou AI eigenlijk niets begrijpen. Tekst, beeld en geluid zijn voor een computer eerst gewoon ruis. Pas door alles om te zetten in embeddings — geordende rijtjes getallen met semantische structuur — kan een model patronen herkennen, vergelijkingen maken en nieuwe dingen genereren.
Je kunt embeddings ook met elkaar vergelijken. Als twee embeddings numeriek dicht bij elkaar liggen, dan zijn de dingen die ze vertegenwoordigen inhoudelijk verwant. Dat is de basis van aanbevelingssystemen ("wie dit kocht, kocht ook dat"), vertalers, chatbots, zoekmachines en herkenningstechnologie.
Waar kom je het tegen?
Bijna elke moderne AI-toepassing gebruikt embeddings onder de motorkap:
Chatbots en tekstgeneratoren zoals ChatGPT, Claude, Gemini — zetten je vraag om in embeddings voordat ze antwoord geven
Zoekmachines zoals Google, Bing — gebruiken embeddings om te snappen wat je echt bedoelt, niet alleen welke letters je typt
Aanbevelingssystemen op Netflix, Spotify, webshops — vergelijken embeddings van films, nummers of producten met jouw smaakprofiel
Vertaalsoftware zoals DeepL, Google Translate — zetten zinnen om in embeddings die taal-onafhankelijk zijn, en vertalen ze daarna naar de doeltaal
Beeldherkenning — foto's worden ook omgezet in embeddings, zodat je kunt zoeken op "rode auto" zonder dat er een tekstlabel bij de foto hoeft te staan
Je ziet embeddings zelf nooit — ze werken achter de schermen. Maar zonder hen zou geen enkele geavanceerde AI-functie werken.
Wat kun je ermee?
Als je zelf met AI-tools aan de slag gaat, hoef je meestal niet zelf embeddings te maken — dat doet de software automatisch. Maar het helpt wel om te begrijpen dat de kwaliteit van je resultaat afhangt van hoe goed het model embeddings kan maken.
Wil je bijvoorbeeld een slimme zoekfunctie bouwen voor klantvragen? Dan heb je een model nodig dat goede embeddings maakt van zowel vragen als antwoorden, zodat het de beste match kan vinden. Wil je teksten clusteren of automatisch taggen? Ook dan zijn embeddings de basis.
In tools zoals OpenAI's API of Hugging Face kun je embeddings direct opvragen als een soort "betekenis-vingerafdruk" van tekst. Die kun je dan opslaan en later gebruiken om snel vergelijkingen te maken, zonder elke keer de hele tekst opnieuw te analyseren. Handig voor grote databases of kennisbanken.
Denk aan embeddings als de universele taal die AI spreekt — een brug tussen de wereld van woorden, beelden en geluiden, en de wereld van berekeningen en patronen. Eenmaal in die vorm, kan een slim model er van alles mee.
Veelgestelde vragen over Embedding
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is Embedding?
Een manier om woorden, zinnen of andere data om te zetten in rijtjes getallen, zodat AI kan rekenen met betekenis — woorden die op elkaar lijken krijgen vergelijkbare cijfers.
Waarom is Embedding belangrijk?
Stel je voor dat je een computer wilt uitleggen wat woorden betekenen. Je kunt niet gewoon zeggen "hond is een huisdier" — een computer snapt alleen maar getallen. Dus verzinnen we een slimme truc: we geven elk woord een rijtje getallen mee. Bijvoorbeeld: "hond" wordt [0.8, 0.2, 0.6], "kat" wordt [0.7, 0.3, 0.5], en "auto" wordt [0.1, 0.9, 0.2].
Hoe wordt Embedding toegepast?
Dat rijtje getallen heet een embedding. Het bijzondere is: woorden die qua betekenis op elkaar lijken, krijgen getallen die ook op elkaar lijken. "Hond" en "kat" hebben vergelijkbare cijfers, maar "auto" staat er ver vanaf. Zo kan de computer ineens "voelen" dat honden en katten meer gemeen hebben dan honden en auto's.