Direct naar inhoud
Alle termenFundamenten & kernconcepten

Wat is Mini-Batch?

Een mini-batch is een kleine groep trainingsvoorbeelden die een AI-model in één keer verwerkt tijdens het leren — efficiënter dan alles tegelijk of één voor één.

Wat is Mini-Batch

Wat is een mini-batch eigenlijk?

Stel je voor dat je een AI-model leert herkennen of een foto een hond of een kat toont. Je hebt 10.000 foto's om mee te trainen. Nu kun je drie dingen doen:

  • Alles tegelijk — het model bekijkt alle 10.000 foto's, berekent wat er fout ging, en past zich aan. Dat kost enorm veel geheugen en rekenkracht.

  • Eén voor één — het model bekijkt één foto, past zich meteen aan, dan de volgende. Dat gaat veel te langzaam en het model springt alle kanten op.

  • Mini-batches — je verdeelt de 10.000 foto's in groepjes van bijvoorbeeld 32. Het model bekijkt die 32 foto's, berekent gemiddeld wat er beter kan, en past zich aan. Dan het volgende groepje van 32.

Die laatste aanpak — met mini-batches — blijkt in de praktijk het beste te werken. Je krijgt de snelheid van groepsgewijs leren, zonder dat je computer vastloopt.

Waarom werkt dit zo goed?

Een mini-batch is dus letterlijk een mini-groepje trainingsvoorbeelden. In plaats van het hele trainingsdataset in één keer door het model te jagen (wat te zwaar is) of elk voorbeeld apart (wat te langzaam en rommelig leert), vind je een gulden middenweg.

De voordelen:

  • Efficiënter geheugengebruik — je laadt niet alles tegelijk in het werkgeheugen van je GPU

  • Stabieler leren — door meerdere voorbeelden tegelijk te bekijken middelt het model de verschillen uit en leert het consistenter

  • Sneller — moderne hardware (GPU's) is gebouwd om kleine batches razendsnel parallel te verwerken

  • Betere generalisatie — het model leert patronen in plaats van individuele voorbeelden uit het hoofd te leren

De grootte van een mini-batch is een keuze die je maakt: 16, 32, 64, 128, 256 zijn veelvoorkomende waardes. Kleinere batches leren soms iets preciezer maar langzamer. Grotere batches zijn sneller maar vragen meer geheugen.

Een voorbeeld uit de praktijk

Stel: je traint een chatbot die klantvragen moet beantwoorden. Je hebt 50.000 eerdere gesprekken als trainingsmateriaal.

Met een batch size van 64 gebeurt dit:

  1. Het model krijgt 64 gesprekken voorgeschoteld

  2. Voor elk gesprek voorspelt het wat het antwoord zou moeten zijn

  3. Het vergelijkt die voorspellingen met de échte antwoorden

  4. Het berekent gemiddeld hoeveel fout het zat bij die 64 voorbeelden

  5. Het past zijn interne parameters een klein beetje aan

  6. Dan krijgt het de volgende 64 gesprekken

Dit proces herhaalt zich tot alle 50.000 gesprekken zijn geweest — dat heet dan één epoch. Vaak train je meerdere epochs, dus het model ziet alle voorbeelden meerdere keren in steeds nieuwe mini-batches.

Waar kom je het tegen?

Bijna elk modern AI-model wordt getraind met mini-batches. Als je met machine learning-tools werkt, kom je de term tegen:

  • TensorFlow en PyTorch — je stelt de batch size in bij het trainen

  • Hugging Face Transformers — bij het fine-tunen van taalmodellen zie je batch size als parameter

  • Cloud AI-diensten (Google Cloud AI, AWS SageMaker, Azure ML) — ook daar configureer je batch sizes voor training

  • Frameworks voor computer vision (YOLO, detectron2) — batch size bepaalt hoeveel afbeeldingen tegelijk door het netwerk gaan

Als je ooit een tutorial volgt over deep learning, is "batch_size=32" vaak een van de eerste dingen die je instelt. Het is een fundamentele bouwsteen van hoe moderne AI leert.

Wat kun je hiermee?

Als je zelf AI-modellen gaat trainen of fine-tunen, is begrip van mini-batches praktisch waardevol. Een te kleine batch size maakt training traag en instabiel. Een te grote kan je geheugen laten vollopen of juist te gladde, generieke modellen opleveren.

De meeste standaardinstellingen (zoals 32 of 64) werken prima voor doorsnee toepassingen. Maar als je merkt dat training vastloopt of je GPU-geheugen vol zit, is batch size aanpassen vaak de eerste knop waar je aan draait. Het is een van die concepten die abstract klinken, maar waar je in de praktijk direct mee stuurt hoe snel en effectief een model leert.

FAQ

Veelgestelde vragen over Mini-Batch

De drie meest gestelde vragen over dit onderwerp, kort beantwoord.

Wat is Mini-Batch?

Een mini-batch is een kleine groep trainingsvoorbeelden die een AI-model in één keer verwerkt tijdens het leren — efficiënter dan alles tegelijk of één voor één.

Waarom is Mini-Batch belangrijk?

Stel je voor dat je een AI-model leert herkennen of een foto een hond of een kat toont. Je hebt 10.000 foto's om mee te trainen. Nu kun je drie dingen doen:

Hoe wordt Mini-Batch toegepast?

Die laatste aanpak — met mini-batches — blijkt in de praktijk het beste te werken. Je krijgt de snelheid van groepsgewijs leren, zonder dat je computer vastloopt.

Deel: