Wat is Stacking?
Een techniek waarbij je meerdere AI-modellen combineert om betere voorspellingen te krijgen — zoals een panel van experts die samen tot een besluit komen.

Wat is stacking eigenlijk?
Stel je voor dat je een lastige beslissing moet nemen — bijvoorbeeld of je morgen een paraplu meeneemt. Je vraagt advies aan drie vrienden: de een kijkt naar weerberichten, de ander naar wolkenformaties, en de derde naar het gedrag van vogels. Vervolgens weeg je hun meningen af en neemt zelf de eindconclusie. Dat is in essentie hoe stacking werkt.
Stacking (of 'stacked generalization') is een machine learning-techniek waarbij je meerdere voorspellingsmodellen traint op dezelfde data. Vervolgens train je nóg een model — het 'meta-model' — dat leert van de voorspellingen van die eerdere modellen. Het meta-model bekijkt wanneer model A gelijk heeft, wanneer model B beter presteert, en hoe je hun oordelen het beste kunt combineren.
Het verschil met gewoon modellen naast elkaar gebruiken? Bij stacking leer je actief hoe je de verschillende modellen moet combineren, in plaats van ze bijvoorbeeld gewoon te middelen.
Hoe werkt het in de praktijk?
Stel: je bouwt een systeem dat voorspelt of iemand een lening zal terugbetalen. Je traint drie verschillende modellen:
Een beslisboom die vooral kijkt naar inkomen en uitgaven
Een logistisch regressiemodel dat patronen zoekt in betalingsgeschiedenis
Een neural network dat complexe relaties tussen variabelen ontdekt
Elk model maakt zijn eigen voorspelling (bijvoorbeeld: "78% kans op terugbetaling", "65%", "82%"). Die drie getallen worden dan input voor het meta-model, dat geleerd heeft wanneer het de beslisboom moet vertrouwen en wanneer juist het neural network.
Het meta-model kan bijvoorbeeld ontdekken: "Als de beslisboom én het neural network het eens zijn, klopt het vrijwel altijd. Maar als alleen het logistische model hoog scoort, wees dan voorzichtig."
Waarom zou je hier iets aan hebben?
De kracht van stacking zit in diversiteit. Net zoals een panel van experts met verschillende achtergronden vaak tot betere besluiten komt dan één specialist, presteren gestackte modellen vaak beter dan elk individueel model.
Een paar voordelen:
Betere voorspellingen: Door modellen te combineren vang je elkaars zwakke punten op
Flexibiliteit: Je kunt modellen met compleet verschillende werkwijzen combineren
Robuustheid: Als één model het bij bepaalde data lastig heeft, kunnen de anderen compenseren
Het nadeel? Het wordt behoorlijk complex. Je moet meerdere modellen trainen én onderhouden, en het kost meer rekenkracht. Voor simpele problemen is het overkill — net zoals je geen drie weermannen hoeft te raadplegen voor een wandeling in de buurt.
Waar kom je het tegen?
Stacking wordt vooral gebruikt bij competities en situaties waar elke procent verbetering belangrijk is:
Kaggle-wedstrijden: Veel winnende teams gebruiken stacking om dat laatste beetje prestatie eruit te halen
Fraud-detectie: Bij banken en verzekeringsmaatschappijen, waar nauwkeurigheid cruciaal is
Marketing-voorspellingen: Om te bepalen welke klanten waarschijnlijk iets kopen of weggaan
Medische diagnostiek: Waar je verschillende modellen kunt laten kijken naar röntgenfoto's of labresultaten
In de AI-wereld spreek je vaak over 'ensemble methods' — technieken waarbij je meerdere modellen combineert. Stacking is daar één van, naast bijvoorbeeld bagging en boosting.
Zelf aan de slag?
Als je al een machine learning-model hebt dat redelijk werkt, maar net niet goed genoeg, kan stacking helpen. Begin eenvoudig: train twee of drie verschillende modeltypen op je data, verzamel hun voorspellingen, en train dan een simpel meta-model (bijvoorbeeld een logistische regressie) op die voorspellingen.
Let wel: zorg dat je niet op dezelfde data traint als waar je de basismodellen mee hebt getraind — anders leert het meta-model de trainingsdata uit z'n hoofd in plaats van echt te leren combineren. Dat heet 'overfitting' en daar word je niet blij van. De meeste machine learning-bibliotheken zoals scikit-learn hebben ingebouwde oplossingen om dit netjes te doen.
Veelgestelde vragen over Stacking
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is Stacking?
Een techniek waarbij je meerdere AI-modellen combineert om betere voorspellingen te krijgen — zoals een panel van experts die samen tot een besluit komen.
Waarom is Stacking belangrijk?
Stel je voor dat je een lastige beslissing moet nemen — bijvoorbeeld of je morgen een paraplu meeneemt. Je vraagt advies aan drie vrienden: de een kijkt naar weerberichten, de ander naar wolkenformaties, en de derde naar het gedrag van vogels. Vervolgens weeg je hun meningen af en neemt zelf de eindconclusie. Dat is in essentie hoe stacking werkt.
Hoe wordt Stacking toegepast?
Stacking (of 'stacked generalization') is een machine learning-techniek waarbij je meerdere voorspellingsmodellen traint op dezelfde data. Vervolgens train je nóg een model — het 'meta-model' — dat leert van de voorspellingen van die eerdere modellen. Het meta-model bekijkt wanneer model A gelijk heeft, wanneer model B beter presteert, en hoe je hun oordelen het beste kunt combineren.