Direct naar inhoud
Alle termenWiskundige & statistische basis

Wat is Maximum Likelihood Estimation?

Een methode om de beste waardes te vinden voor de instellingen van een AI-model, door te zoeken naar de versie die het meest waarschijnlijk is gegeven de trainingsdata.

Wat is Maximum Likelihood Estimation

Wat is Maximum Likelihood Estimation eigenlijk?

Stel je voor dat je een recept hebt voor pannenkoeken, maar je weet niet precies hoeveel melk en bloem je moet gebruiken. Je bakt tien keer pannenkoeken met steeds andere verhoudingen en proeft welke het lekkerst zijn. De verhouding die bij de lekkerste pannenkoeken hoort, is waarschijnlijk de beste. Maximum Likelihood Estimation (MLE) werkt hetzelfde, maar dan voor AI-modellen.

Bij het trainen van een AI-model — bijvoorbeeld een systeem dat moet voorspellen of een e-mail spam is — moet het model allerlei instellingen hebben. Die instellingen bepalen hoe zwaar bepaalde woorden meetellen. MLE is de methode om die instellingen zo in te stellen dat ze het beste bij je voorbeelddata passen. Letterlijk: welke instellingen maken het het meest waarschijnlijk dat het model precies die voorbeelden zou produceren?

Hoe werkt het in de praktijk?

AI-modellen werken met parameters — dat zijn de draaiknoppen die bepalen hoe het model beslissingen neemt. Een simpel voorbeeld: stel dat je een model hebt dat huizenprijzen voorspelt op basis van vierkante meters. De parameter is dan: hoeveel euro extra per vierkante meter?

MLE zoekt naar de parameter waarbij de kans het grootst is dat je precies die huizenprijzen uit je trainingsdata krijgt. Het model gaat als het ware alle mogelijke waardes langs en vraagt bij elke waarde: "Als dit de juiste instelling was, hoe waarschijnlijk is het dan dat ik precies deze voorbeelden zou zien?" De waarde met de hoogste waarschijnlijkheid wint.

In de praktijk gebeurt dit niet handmatig, maar via wiskundige optimalisatie-algoritmes die automatisch die beste waarde vinden. Bij complexe modellen zoals neural networks heb je miljoenen parameters, maar het principe blijft hetzelfde: zoek de combinatie die de data het best verklaart.

Waarom is dit belangrijk voor AI?

Bijna elk supervised learning-model — dus modellen die leren van voorbeelden met het juiste antwoord erbij — gebruikt een vorm van MLE tijdens de training. Het is de brug tussen ruwe data en een werkend model.

Denk aan:

  • Spamfilters die leren welke woorden typisch zijn voor spam

  • Spraakherkenning die leert welke klanken bij welke letters horen

  • Beeldherkenning die leert welke pixelpatronen bij "hond" of "kat" horen

  • Aanbevelingssystemen die leren welke films bij welke kijkers passen

In al deze gevallen wordt MLE gebruikt om de instellingen van het model zo af te stellen dat het de trainingsvoorbeelden het beste reproduceert.

Een concreet voorbeeld

Stel: je hebt tien keer een munt gegooid en zeven keer kop gekregen. Je wilt weten: wat is de kans dat deze munt kop gooit? MLE zegt: de meest waarschijnlijke kans is 7/10 = 0,7 (oftewel 70%). Want als de munt écht 70% kans op kop heeft, is de kans het grootst dat je bij tien worpen precies zeven keer kop krijgt.

Bij AI-modellen is het principe hetzelfde, alleen met veel meer "munten" (parameters) en veel meer "worpen" (trainingsvoorbeelden). Het model zoekt naar die combinatie van parameters waarbij de kans het grootst is dat het precies jouw trainingsdata produceert.

Waar kom je het tegen?

Je komt MLE tegen in vrijwel alle klassieke machine learning-algoritmes:

Als je een scikit-learn, TensorFlow of PyTorch model traint, gebruikt het onder de motorkap vaak een vorm van MLE — ook al zie je die term misschien niet expliciet staan.

Beperkingen en alternatieven

MLE heeft één belangrijk nadeel: het kan te gretig zijn. Als je tien keer een munt gooit en tien keer kop krijgt, zegt MLE: de kans op kop is 100%. Maar dat voelt niet realistisch — misschien had je gewoon geluk. Daarom bestaan er varianten zoals Maximum A Posteriori (MAP) estimation, die ook je voorkennis meenemen: "munten zijn meestal ongeveer 50/50, dus ook al kreeg ik nu tien keer kop, ik ga niet meteen zeggen dat het 100% is".

Toch blijft MLE de standaard voor de meeste AI-toepassingen, omdat het simpel, intuïtief en wiskundig goed onderbouwd is.

Wat kun je er zelf mee?

Als je zelf AI-modellen traint — bijvoorbeeld met Python-bibliotheken — hoef je MLE vaak niet handmatig te programmeren. De algoritmes doen het automatisch. Maar het is goed om te begrijpen dat "model trainen" in de kern betekent: de instellingen zoeken die het meest waarschijnlijk zijn gegeven je data. Dat helpt je begrijpen waarom meer en betere trainingsdata leiden tot betere modellen: hoe meer voorbeelden, hoe preciezer je die meest waarschijnlijke instellingen kunt vinden. En het helpt je begrijpen waarom modellen soms te zeker van zichzelf lijken: ze zijn geoptimaliseerd om de trainingsdata zo goed mogelijk te verklaren — niet om eerlijk hun onzekerheid toe te geven.

FAQ

Veelgestelde vragen over Maximum Likelihood Estimation

De drie meest gestelde vragen over dit onderwerp, kort beantwoord.

Wat is Maximum Likelihood Estimation?

Een methode om de beste waardes te vinden voor de instellingen van een AI-model, door te zoeken naar de versie die het meest waarschijnlijk is gegeven de trainingsdata.

Waarom is Maximum Likelihood Estimation belangrijk?

Stel je voor dat je een recept hebt voor pannenkoeken, maar je weet niet precies hoeveel melk en bloem je moet gebruiken. Je bakt tien keer pannenkoeken met steeds andere verhoudingen en proeft welke het lekkerst zijn. De verhouding die bij de lekkerste pannenkoeken hoort, is waarschijnlijk de beste. Maximum Likelihood Estimation (MLE) werkt hetzelfde, maar dan voor AI-modellen.

Hoe wordt Maximum Likelihood Estimation toegepast?

Bij het trainen van een AI-model — bijvoorbeeld een systeem dat moet voorspellen of een e-mail spam is — moet het model allerlei instellingen hebben. Die instellingen bepalen hoe zwaar bepaalde woorden meetellen. MLE is de methode om die instellingen zo in te stellen dat ze het beste bij je voorbeelddata passen. Letterlijk: welke instellingen maken het het meest waarschijnlijk dat het model precies die voorbeelden zou produceren?

Deel: