Wat is Checkpoint?
Een tussentijdse momentopname van een AI-model tijdens de training, zodat je later vanaf dat punt kunt verder trainen of terug kunt naar een eerdere versie.

Wat is een checkpoint eigenlijk?
Stel je voor dat je een enorme legpuzzel van duizend stukjes aan het maken bent. Na drie uur werk maak je een foto van je voortgang, zodat je morgen precies kunt zien waar je gebleven was — of voor het geval je kat over de tafel springt en alles door elkaar gooit. Dat is in een notendop wat een checkpoint doet bij het trainen van een AI-model.
Bij het trainen van een neuraal netwerk gaat het model miljoenen keren data analyseren om steeds beter te worden. Dat kost uren, dagen of soms weken rekentijd. Een checkpoint is een momentopname die vastlegt hoe slim het model op dat specifieke moment was: welke instellingen het had geleerd, welke verbindingen tussen kunstmatige neuronen hoe sterk waren, enzovoort.
Waarom zou je checkpoints maken?
Er zijn een paar praktische redenen waarom elke AI-ontwikkelaar met checkpoints werkt:
Als de stroom uitvalt — Computers crashen, servers vallen uit, je laptop gaat per ongeluk dicht. Zonder checkpoint ben je al je trainingstijd kwijt. Met een checkpoint pak je gewoon de laatste opgeslagen versie en ga je verder.
Om terug te kunnen — Soms wordt een model halverwege de training juist slechter in plaats van beter (dat heet overfitting). Dan is het handig om terug te kunnen naar een eerdere versie die het nog wél goed deed.
Om te vergelijken — Je kunt verschillende checkpoints naast elkaar leggen en testen welke versie het beste werkt voor jouw specifieke taak.
Om te delen — Als je een model hebt getraind, kun je de beste checkpoint online zetten zodat anderen ermee verder kunnen werken zonder alles opnieuw te hoeven trainen.
Hoe werkt het in de praktijk?
Als je een AI-model traint, kun je van tevoren instellen: "Sla elke duizend trainingsstappen een checkpoint op" of "Bewaar een checkpoint zodra het model beter presteert dan de vorige keer". Elke checkpoint is technisch gezien een bestand (of een set bestanden) waarin alle interne parameters van het model op dat moment zijn opgeslagen — vaak meerdere gigabytes groot.
Een voorbeeld: een onderzoeker traint een taalmodel om medische teksten te begrijpen. Na dag één is het model redelijk, na dag drie goed, na dag vijf uitstekend — maar na dag zeven raakt het verward en begint het rare dingen te verzinnen. Dankzij de checkpoints kan de onderzoeker gewoon terugkeren naar de versie van dag vijf en daar verder experimenteren.
Waar kom je het tegen?
Bijna alle AI-trainingstools gebruiken checkpoints:
PyTorch en TensorFlow — De twee meest gebruikte frameworks voor deep learning hebben ingebouwde functies om checkpoints op te slaan en te laden.
Hugging Face — Dit platform deelt tienduizenden voorgeconstrueerde taalmodellen, vaak in de vorm van checkpoints die je direct kunt downloaden en gebruiken.
Stable Diffusion en andere beeldgeneratoren — De community deelt regelmatig aangepaste checkpoints (vaak "custom models" genoemd) die getraind zijn op specifieke stijlen of onderwerpen.
OpenAI, Anthropic en andere grote labs — Ook zij slaan tijdens het trainen van modellen als GPT of Claude regelmatig checkpoints op, al delen ze die zelden publiekelijk.
Checkpoints zijn de ruggengraat van flexibel AI-ontwikkelen: ze zorgen ervoor dat je niet alles in één keer perfect hoeft te doen, maar dat je kunt experimenteren, terugkeren en verder bouwen op wat al werkt. Voor jou als gebruiker betekent het vooral dat je toegang hebt tot modellen die anderen al (deels) hebben getraind — zonder zelf weken rekentijd in te hoeven zetten.
Veelgestelde vragen over Checkpoint
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is Checkpoint?
Een tussentijdse momentopname van een AI-model tijdens de training, zodat je later vanaf dat punt kunt verder trainen of terug kunt naar een eerdere versie.
Waarom is Checkpoint belangrijk?
Stel je voor dat je een enorme legpuzzel van duizend stukjes aan het maken bent. Na drie uur werk maak je een foto van je voortgang, zodat je morgen precies kunt zien waar je gebleven was — of voor het geval je kat over de tafel springt en alles door elkaar gooit. Dat is in een notendop wat een checkpoint doet bij het trainen van een AI-model.
Hoe wordt Checkpoint toegepast?
Bij het trainen van een neuraal netwerk gaat het model miljoenen keren data analyseren om steeds beter te worden. Dat kost uren, dagen of soms weken rekentijd. Een checkpoint is een momentopname die vastlegt hoe slim het model op dat specifieke moment was: welke instellingen het had geleerd, welke verbindingen tussen kunstmatige neuronen hoe sterk waren, enzovoort.