Wat is AI Sampler?
Een algoritme dat bepaalt hoe een AI-model de volgende stap in zijn output kiest — zoals kiezen uit duizenden mogelijke vervolgwoorden, maar dan slim gekozen op basis van kans en creativiteit.
Ook bekend als: Sampler, sampler

Wat is een AI Sampler eigenlijk?
Stel je voor: je AI-model heeft net het begin van een zin geschreven en moet nu het volgende woord kiezen. Er zijn honderden mogelijkheden — "de", "een", "mijn", "jouw", noem maar op. Een AI Sampler is het algoritme dat die keuze maakt. Niet willekeurig, maar op basis van waarschijnlijkheden die het model berekend heeft.
Denk aan een sampler als een slimme dobbelsteen. Bij elke stap in het genereren van tekst, beeld of geluid kijkt de AI: "wat zijn mijn opties, en hoe waarschijnlijk is elk ervan?" De sampler pakt die lijst met kansen en kiest er één uit — soms de meest voor de hand liggende, soms juist een verrassende.
Het woord "sampler" komt uit de statistiek en betekent letterlijk "iets dat een sample neemt" — een keuze maakt uit een verdeling van mogelijkheden. In AI-termen: het mechanisme dat ervoor zorgt dat een model niet elke keer precies hetzelfde antwoord geeft, maar varieert binnen wat waarschijnlijk is.
Hoe werkt het eigenlijk?
Een taalmodel zoals GPT of Claude berekent bij elke stap een score voor elk mogelijk volgend woord (technisch: een "probability distribution"). Die lijst kan er zo uitzien:
"de" → 35% kans
"een" → 20% kans
"mijn" → 10% kans
"jouw" → 5% kans
... en zo verder voor duizenden andere woorden
De sampler moet hier nu één woord uit kiezen. Hoe doet ie dat? Dat hangt af van het type sampler:
Greedy sampling kiest altijd het meest waarschijnlijke woord. Voorspelbaar, maar saai — je krijgt steeds dezelfde output.
Temperature sampling voegt een soort "creativiteitsknop" toe. Een lage temperature (bijvoorbeeld 0.2) maakt de keuze conservatiever: het model kiest vaker het veilige, waarschijnlijke woord. Een hoge temperature (bijvoorbeeld 1.5) maakt de verdeling vlakker: ook minder waarschijnlijke woorden krijgen een eerlijke kans. Zo ontstaat verrassende, soms vreemde output.
Top-k sampling beperkt de keuze tot de k meest waarschijnlijke opties. Bijvoorbeeld: neem alleen de top-50 woorden, negeer de rest. Zo voorkom je dat het model plots een heel raar woord kiest.
Top-p sampling (ook wel nucleus sampling genoemd) kijkt naar de cumulatieve kans: pak genoeg woorden totdat je samen 90% (of een andere waarde) van de waarschijnlijkheidsmassa hebt. Flexibeler dan top-k.
In de praktijk combineren modellen vaak meerdere samplers: eerst top-p om rare keuzes uit te sluiten, dan temperature om de creativiteit te sturen.
Waarom zou jij hier iets aan hebben?
Als je weleens met ChatGPT, Claude of een andere AI-tool werkt, heb je misschien gemerkt dat je soms precies hetzelfde vraagt en tóch een net iets andere tekst terugkrijgt. Dat komt door de sampler.
De sampler bepaalt:
Hoe creatief je output is — van saai-voorspelbaar tot verrassend-experimenteel
Hoe consistent herhaalde vragen zijn — lage temperature = steeds hetzelfde, hoge temperature = steeds anders
Hoe "veilig" de keuzes zijn — wil je dat het model binnen de gebaande paden blijft, of juist experimenteert?
Voor creatieve taken (verhalen schrijven, brainstormen) wil je vaak een hogere temperature. Voor feitelijke vragen ("wat is de hoofdstad van Frankrijk?") juist een lage, zodat je betrouwbare antwoorden krijgt.
Waar kom je het tegen?
Bijna elke generatieve AI gebruikt een vorm van sampling, al zie je het niet altijd direct:
ChatGPT, Claude, Gemini, Copilot — de temperature-instelling die je soms kunt aanpassen (of die standaard op bijvoorbeeld 0.7 staat) stuurt de sampler
Beeld-generatoren zoals DALL·E, Midjourney, Stable Diffusion — ook hier wordt bij elke stap "gesampled" uit mogelijke volgende pixels of latente representaties
Muziek-AI zoals MusicLM of Jukebox — kiest bij elke noot of beat uit mogelijke vervolgstappen
Code-assistenten zoals GitHub Copilot — samplet uit mogelijke code-suggesties, vaak met lage temperature voor voorspelbaarheid
In de interfaces zie je soms ook termen als "randomness", "variability" of "diversity" — die sturen allemaal de sampler.
Wat kun je ermee?
Als je AI-tools gebruikt, is het handig om te weten dat je met de sampler-instellingen kunt sturen hoe de output eruit ziet. Experimenteer met temperature in de API of advanced settings van je tool:
Krijg je te saaie, herhalende antwoorden? Zet de temperature wat hoger (bijvoorbeeld 0.8-1.0)
Krijg je rare, onzinnige output? Verlaag de temperature (bijvoorbeeld 0.3-0.5)
Wil je elke keer precies hetzelfde resultaat? Zet temperature op 0 (greedy sampling)
Door te begrijpen hoe de sampler werkt, heb je meer grip op wat je AI-model produceert — en kun je het beter afstemmen op jouw specifieke taak.
Veelgestelde vragen over AI Sampler
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is AI Sampler?
Een algoritme dat bepaalt hoe een AI-model de volgende stap in zijn output kiest — zoals kiezen uit duizenden mogelijke vervolgwoorden, maar dan slim gekozen op basis van kans en creativiteit.
Waarom is AI Sampler belangrijk?
Stel je voor: je AI-model heeft net het begin van een zin geschreven en moet nu het volgende woord kiezen. Er zijn honderden mogelijkheden — "de", "een", "mijn", "jouw", noem maar op. Een AI Sampler is het algoritme dat die keuze maakt. Niet willekeurig, maar op basis van waarschijnlijkheden die het model berekend heeft.
Hoe wordt AI Sampler toegepast?
Denk aan een sampler als een slimme dobbelsteen. Bij elke stap in het genereren van tekst, beeld of geluid kijkt de AI: "wat zijn mijn opties, en hoe waarschijnlijk is elk ervan?" De sampler pakt die lijst met kansen en kiest er één uit — soms de meest voor de hand liggende, soms juist een verrassende.