Direct naar inhoud
Alle termenWiskundige & statistische basis

Wat is Kullback-Leibler Divergence?

Een manier om te meten hoe sterk twee kansverdelingen van elkaar verschillen — denk aan het verschil tussen wat een AI voorspelt en wat er écht gebeurt.

Wat is Kullback-Leibler Divergence

Wat meet je eigenlijk?

Stel je voor: je gooit een dobbelsteen, en je wilt weten of die eerlijk is. Je verwacht dat elk getal (1 t/m 6) evenveel kans heeft — ongeveer 17% per getal. Maar na 100 worpen zie je dat de 6 maar liefst 40% van de tijd valt. Er klopt iets niet.

Kullback-Leibler Divergence (vaak afgekort als KL-divergence) is een meetlat die precies dat verschil in kaartbrengt: hoe ver ligt jouw verwachting van de werkelijkheid? Het getal dat eruit komt, zegt: "zo veel informatie mis je als je denkt dat de dobbelsteen eerlijk is, terwijl dat niet zo is."

In AI-termen: je hebt een model dat voorspellingen doet ("ik denk dat het volgende woord 'huis' is met 70% zekerheid"), en je hebt de werkelijkheid ("het was inderdaad 'huis'"). KL-divergence meet hoeveel die voorspelling afwijkt van wat er echt gebeurde.

Hoe werkt het eigenlijk?

De KL-divergence vergelijkt twee kansverdelingen met elkaar:

  • De eerste verdeling is wat je verwacht of wat je model voorspelt

  • De tweede verdeling is wat er werkelijk gebeurt (de echte data)

Het belangrijkste om te weten:

  • Een score van 0 betekent: perfect, geen verschil — je voorspelling klopt precies

  • Hoe hoger het getal, hoe groter het verschil tussen verwachting en werkelijkheid

  • Het is niet symmetrisch: het verschil tussen A en B is niet hetzelfde als tussen B en A (net zoals de afstand van Amsterdam naar Utrecht anders aanvoelt dan andersom als je tegen de wind fietst)

Waar kom je het tegen?

KL-divergence zit verstopt in het hart van veel AI-systemen, vooral tijdens de training:

  • Taalmodellen zoals GPT, Claude, Gemini en Llama gebruiken het om te leren welke woorden het meest waarschijnlijk zijn in een zin

  • Variational Autoencoders (VAE's) — systemen die nieuwe afbeeldingen of geluiden kunnen genereren — gebruiken het om te zorgen dat gegenereerde data lijkt op de originele trainingsdata

  • Reinforcement learning — denk aan AI die leert gamen of robots aanstuurt — gebruikt het om te meten of het gedrag van de AI dichter bij het gewenste gedrag komt

Je ziet het ook terug in de naam van trainingsmethoden: "cross-entropy loss" is een nauwe verwant die in de praktijk hetzelfde doel dient.

Een voorbeeld uit de praktijk

Stel: je traint een chatbot die moet voorspellen wat iemand gaat typen. De chatbot denkt: "Na 'Hoe gaat het' komt waarschijnlijk 'met' (80%) of 'vandaag' (20%)."

Maar in de trainingsdata staat dat mensen na "Hoe gaat het" bijna altijd "met jou" zeggen (95% van de tijd).

De KL-divergence meet nu: "Jouw chatbot zit er flink naast — de voorspelling (80% 'met') wijkt sterk af van de werkelijkheid (95% 'met jou'). Daar moet je aan werken."

Door duizenden van dit soort vergelijkingen past het model z'n gewichten aan, totdat de KL-divergence zo klein mogelijk wordt — oftewel: de voorspellingen kloppen steeds beter met de werkelijkheid.

Waarom maakt dit uit voor jou?

Als je AI-systemen gebruikt of ontwikkelt, helpt dit begrip je te snappen waarom modellen soms verrassend goed werken (lage divergence = goede voorspellingen) en soms volledig de mist ingaan (hoge divergence = het model "begrijpt" de situatie niet).

Begrijp je hoe een model leert van z'n fouten? Dan snap je ook beter wanneer je een model kunt vertrouwen — en wanneer niet. Het is de onzichtbare meetlat die bepaalt of een AI slim genoeg is voor jouw toepassing.

FAQ

Veelgestelde vragen over Kullback-Leibler Divergence

De drie meest gestelde vragen over dit onderwerp, kort beantwoord.

Wat is Kullback-Leibler Divergence?

Een manier om te meten hoe sterk twee kansverdelingen van elkaar verschillen — denk aan het verschil tussen wat een AI voorspelt en wat er écht gebeurt.

Waarom is Kullback-Leibler Divergence belangrijk?

Stel je voor: je gooit een dobbelsteen, en je wilt weten of die eerlijk is. Je verwacht dat elk getal (1 t/m 6) evenveel kans heeft — ongeveer 17% per getal. Maar na 100 worpen zie je dat de 6 maar liefst 40% van de tijd valt. Er klopt iets niet.

Hoe wordt Kullback-Leibler Divergence toegepast?

Kullback-Leibler Divergence (vaak afgekort als KL-divergence) is een meetlat die precies dat verschil in kaartbrengt: hoe ver ligt jouw verwachting van de werkelijkheid? Het getal dat eruit komt, zegt: "zo veel informatie mis je als je denkt dat de dobbelsteen eerlijk is, terwijl dat niet zo is."

Deel: