Wat is Hyperparameter?
Een instelling die je vóór de training van een AI-model kiest, zoals de snelheid waarmee het model leert. Het model leert deze waarde niet zelf — jij bepaalt hem van tevoren.

Wat is een hyperparameter precies?
Stel je voor dat je een oven koopt. De temperatuur die je instelt voordat je begint te bakken — dat is een hyperparameter. Het verschil met een gewone parameter? Die leert de oven zelf tijdens het bakken (bijvoorbeeld hoeveel vocht er in het brood moet blijven). Maar die temperatuur, die baktijd, die stel jij in.
Bij AI werkt het precies zo. Een hyperparameter is een instelling die jij als ontwikkelaar kiest voordat het model begint te leren. Het model zelf past deze waarde niet aan tijdens de training — dat is het grote verschil met parameters (zoals gewichten in een neuraal netwerk), die juist wél worden aangepast.
Denk aan knoppen op een mengpaneel: snelheid, intensiteit, duur. Die stel je in voordat je op 'start' drukt. Bij AI zijn hyperparameters precies dat: de knoppen die bepalen hóe het leerproces verloopt.
Voorbeelden die je vast tegenkomt
Een paar veel voorkomende hyperparameters:
Learning rate — hoe grote stappen het model neemt tijdens het leren. Te groot: je schiet door je doel heen. Te klein: het duurt eeuwen voordat je iets leert.
Batch size — hoeveel voorbeelden het model in één keer bekijkt voordat het zijn gewichten aanpast. Vergelijk het met flashcards: bekijk je er 10 tegelijk of 100?
Aantal epochs — hoe vaak het model door alle trainingsdata heengaat. Eén keer is vaak niet genoeg, maar te vaak leidt tot overfitting (het model leert de voorbeelden uit het hoofd in plaats van algemene patronen).
Aantal lagen — hoeveel lagen neuronen je in je netwerk stopt. Meer is niet altijd beter.
Elke keuze heeft effect op hoe goed, hoe snel en hoe betrouwbaar je model wordt.
Waarom zijn hyperparameters zo belangrijk?
Omdat ze gigantisch veel invloed hebben op het eindresultaat. Twee identieke modellen met verschillende hyperparameters kunnen totaal verschillende prestaties leveren. Het ene model haalt 70% nauwkeurigheid, het andere 95% — puur door andere instellingen.
Het lastige is: er is geen universeel recept. Wat werkt voor het ene probleem, faalt bij het andere. Daarom besteden AI-ontwikkelaars enorm veel tijd aan hyperparameter tuning — het systematisch uitproberen van combinaties om te zien wat het beste werkt. Soms met de hand, steeds vaker geautomatiseerd met technieken zoals grid search of Bayesiaanse optimalisatie.
Waar kom je het tegen?
Als je zelf met AI-tools aan de slag gaat, zie je hyperparameters overal:
Keras, PyTorch, TensorFlow — bij het opzetten van een neuraal netwerk stel je learning rate, optimizer, batch size in
Scikit-learn — bij decision trees of random forests kies je diepte, aantal bomen, split-criteria
Hugging Face — bij fine-tuning van taalmodellen pas je learning rate, warmup steps, weight decay aan
AutoML-platforms zoals Google AutoML of H2O.ai — deze tools proberen automatisch de beste hyperparameters te vinden
Zelfs als je geen code schrijft: als je met een data scientist praat over een AI-project, hoor je dit woord gegarandeerd voorbijkomen.
Wat kun je er nu mee?
Als je begrijpt wat hyperparameters zijn, snap je waarom AI-projecten niet in één keer perfect werken. Het is geen plug-and-play. Elk model vraagt maatwerk: experimenteren, meten, bijstellen. Dat kost tijd en expertise.
Voor niet-techneuten is het vooral goed om te weten: als een leverancier zegt "we trainen een model voor jullie", vraag dan gerust hoe ze hyperparameters kiezen en testen. Dat zegt veel over hun aanpak. En als je zelf met AutoML-tools experimenteert, weet je nu dat die knoppen die je ziet — learning rate, epochs, batch size — geen detail zijn, maar de ruggengraat van het leerproces.
Veelgestelde vragen over Hyperparameter
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is Hyperparameter?
Een instelling die je vóór de training van een AI-model kiest, zoals de snelheid waarmee het model leert. Het model leert deze waarde niet zelf — jij bepaalt hem van tevoren.
Waarom is Hyperparameter belangrijk?
Stel je voor dat je een oven koopt. De temperatuur die je instelt voordat je begint te bakken — dat is een hyperparameter. Het verschil met een gewone parameter? Die leert de oven zelf tijdens het bakken (bijvoorbeeld hoeveel vocht er in het brood moet blijven). Maar die temperatuur, die baktijd, die stel jij in.
Hoe wordt Hyperparameter toegepast?
Bij AI werkt het precies zo. Een hyperparameter is een instelling die jij als ontwikkelaar kiest voordat het model begint te leren. Het model zelf past deze waarde niet aan tijdens de training — dat is het grote verschil met parameters (zoals gewichten in een neuraal netwerk), die juist wél worden aangepast.