Wat is Normalization?
Het op één lijn brengen van data met verschillende schalen, zodat een AI-model alle cijfers eerlijk kan vergelijken — zoals het omrekenen van appels en peren naar 'stuks fruit'.
Ook bekend als: normalization, normalisatie

Waarom normalization überhaupt nodig is
Stel je voor dat je een AI-model traint om te voorspellen of iemand krediet krijgt. Je voedt het model met data: leeftijd (bijvoorbeeld 25-65), jaarinkomen (bijvoorbeeld €20.000-€150.000) en aantal kinderen (0-5). Het probleem? Die getallen leven in compleet verschillende werelden. Het inkomen loopt in tienduizenden, de leeftijd in tientallen, en het aantal kinderen blijft onder de 10.
Zonder normalization gaat het model denken dat inkomen veel belangrijker is — simpelweg omdat die getallen groter zijn. Net zoals je niet appels en peren kunt vergelijken zonder ze eerst om te rekenen naar 'stuks fruit', kun je deze data niet eerlijk vergelijken zonder ze op dezelfde schaal te zetten.
Dat omrekenen naar een vergelijkbare schaal heet normalization. Je brengt alle waardes terug naar bijvoorbeeld een bandbreedte tussen 0 en 1, of je zorgt dat elk gegeven rond hetzelfde gemiddelde zweeft. Het resultaat: het model kan alle gegevens eerlijk tegen elkaar afwegen, zonder dat één type data onterecht domineert.
Hoe het in de praktijk werkt
Er zijn verschillende manieren om data te normaliseren. De twee meest voorkomende:
Min-max normalization brengt alles naar een schaal tussen 0 en 1. Het kleinste getal wordt 0, het grootste wordt 1, en alles ertussenin krijgt een passende plek. Handig als je weet wat de grenzen van je data zijn.
Standardization (ook wel z-score normalization) draait om het gemiddelde en de spreiding. Je rekent uit wat het gemiddelde is van je data, trekt dat overal vanaf, en deelt door de spreiding. Het resultaat: data die rond 0 zweeft, met typisch waardes tussen -3 en +3. Deze methode werkt goed als je data normaal verdeeld is — denk aan lengtes, gewichten, testscores.
Bij beeldherkenning zie je nog een derde variant: elke pixel (die loopt van 0 tot 255) delen door 255, zodat alles tussen 0 en 1 zit. Simpel maar effectief.
Een voorbeeld uit de praktijk
Een ziekenhuis wil voorspellen of een patiënt risico loopt op hartproblemen. De data:
Bloeddruk: 80-200 mmHg
Cholesterol: 3,5-8,5 mmol/L
Leeftijd: 20-90 jaar
Rookt: 0 (nee) of 1 (ja)
Zonder normalization zou het model de bloeddruk véél zwaarder laten wegen dan roken — puur omdat die getallen groter zijn. Na normalization staan alle waardes op dezelfde schaal, en kan het model ontdekken dat roken eigenlijk een veel sterkere voorspeller is dan een paar punten verschil in bloeddruk.
Waar kom je het tegen?
Bijna elk AI-systeem dat met cijfers werkt, gebruikt een vorm van normalization:
Machine learning-platforms zoals scikit-learn, TensorFlow en PyTorch hebben ingebouwde normalization-functies
AutoML-tools (Google AutoML, Azure ML, H2O.ai) normaliseren je data vaak automatisch
Data science-software zoals SPSS, Tableau Prep en Alteryx bieden standaard normalization-opties
Spreadsheet-tools — zelfs in Excel kun je data normaliseren met formules, al moet je het handmatig opzetten
Deep learning voor beelden — praktisch elk model normaliseert pixels voordat het ze verwerkt
Waarom dit voor jou uitmaakt
Als je data aan een AI-systeem voedt en de resultaten lijken scheef of onlogisch, kan het probleem bij normalization liggen. Een model dat leeftijd als belangrijkste factor ziet terwijl je verwacht dat ervaring doorslaggevend is? Check of je waardes wel op dezelfde schaal staan.
Goede normalization maakt je model niet alleen eerlijker, maar ook sneller. Het helpt het leerproces om soepeler te verlopen. En als je met een data scientist of ML-engineer praat over rare uitkomsten, is 'hoe hebben jullie de data genormaliseerd?' een slimme eerste vraag.
Veelgestelde vragen over Normalization
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is Normalization?
Het op één lijn brengen van data met verschillende schalen, zodat een AI-model alle cijfers eerlijk kan vergelijken — zoals het omrekenen van appels en peren naar 'stuks fruit'.
Waarom is Normalization belangrijk?
Stel je voor dat je een AI-model traint om te voorspellen of iemand krediet krijgt. Je voedt het model met data: leeftijd (bijvoorbeeld 25-65), jaarinkomen (bijvoorbeeld €20.000-€150.000) en aantal kinderen (0-5). Het probleem? Die getallen leven in compleet verschillende werelden. Het inkomen loopt in tienduizenden, de leeftijd in tientallen, en het aantal kinderen blijft onder de 10.
Hoe wordt Normalization toegepast?
Zonder normalization gaat het model denken dat inkomen veel belangrijker is — simpelweg omdat die getallen groter zijn. Net zoals je niet appels en peren kunt vergelijken zonder ze eerst om te rekenen naar 'stuks fruit', kun je deze data niet eerlijk vergelijken zonder ze op dezelfde schaal te zetten.