Direct naar inhoud
Alle termenData, evaluatie & metrics

Wat is Test Set?

Een verzameling data die je apart houdt om te testen hoe goed je getrainde AI-model werkt op nieuwe, onbekende informatie — zoals een proefexamen na de lessen.

Wat is Test Set

Hoe werkt het eigenlijk?

Stel je voor dat je een kind leert fietsen. Je oefent elke dag op dezelfde straat, totdat het kind daar perfect kan rijden. Maar je weet pas écht of het kan fietsen als je het ergens anders laat proberen — een onbekende route, andere bochten, ander wegdek.

Dat is precies wat een test set doet voor AI. Het is een verzameling voorbeelden die je bewust apart houdt tijdens het trainen van je model. Je gebruikt die voorbeelden niet om het model te leren, maar alleen om achteraf te controleren: hoe goed presteert het op data die het nog nooit eerder heeft gezien?

Waarom zou jij hier iets aan hebben?

Als je een AI-model alleen test op data waarop het is getraind, krijg je een vertekend beeld. Het model heeft die voorbeelden al gezien — het kan ze uit zijn hoofd kennen zonder echt te begrijpen wat er gebeurt. Dat heet overfitting: goed op het oefenmateriaal, maar zwak in de praktijk.

Een test set geeft je een eerlijk beeld. Hij laat zien of je model generaliseert — of het geleerde regels ook toepast op nieuwe situaties. Dat is cruciaal als je het model straks in de echte wereld wilt inzetten.

Zo splits je data meestal op:

  • Training set (vaak 70-80%): hierop leert het model

  • Validation set (10-15%): hiermee stem je het model af tijdens het trainen (bijvoorbeeld welke hyperparameters je kiest)

  • Test set (10-15%): hiermee toets je de eindprestatie, nadat alles klaar is

Die laatste mag je maar één keer gebruiken — als je daarna nog gaat sleutelen aan je model en opnieuw test, is het geen eerlijke test meer.

Een voorbeeld uit de praktijk

Stel, je bouwt een spamfilter voor e-mails. Je hebt 10.000 voorbeelden verzameld: echte mails en spam.

Je traint je model op 7.000 mails. Tijdens het trainen check je tussendoor hoe het gaat met 1.500 mails (validation set) om te zien of je model niet te ingewikkeld wordt. Als alles klaar is, test je het één keer op de laatste 1.500 mails die het model nog nooit heeft gezien.

Als je model 95% correct is op die test set, weet je: dit is een redelijk betrouwbare schatting van hoe het in de praktijk zal presteren bij nieuwe mails van echte gebruikers.

Waar kom je het tegen?

Elke serieuze AI-toepassing gebruikt een test set:

  • Medische AI: modellen die ziektes herkennen op foto's worden getest op patiënten die niet in de trainingsdata zaten

  • Creditscoring: voorspellen of iemand een lening terugbetaalt wordt getoetst op nieuwe aanvragen

  • Spraakherkenning: voice assistants zoals Siri, Alexa of Google Assistant worden getest op opnames van mensen die niet in de training zaten

  • Zelfrijdende auto's: algoritmes worden getest op rijsituaties die ze niet eerder hebben gezien

  • Chatbots en taalmodellen: beantwoorden van vragen wordt getoetst op nieuwe vragen uit onbekende bronnen

In onderzoek zie je vaak publieke test sets — standaard datasets waarop alle onderzoekers hun modellen kunnen vergelijken, zoals ImageNet voor beeldherkenning of SQuAD voor tekstvragen.

Let op deze valkuil

Een veelgemaakte fout: je test set meerdere keren gebruiken terwijl je je model aanpast. Dan ga je onbewust optimaliseren op die testdata — en verlies je het eerlijke beeld. In die situatie heb je eigenlijk een tweede validation set nodig, en een gloednieuwe test set voor de allerlaatste check.

Wat kun je er nu mee?

Als je zelf een AI-project start of een leverancier beoordeelt, vraag dan altijd: hoe is de data gesplitst? Is er een echte test set gebruikt die volledig onafhankelijk was van de training? Dat verschil bepaalt of de gerapporteerde nauwkeurigheid realistisch is — of alleen mooi op papier.

FAQ

Veelgestelde vragen over Test Set

De drie meest gestelde vragen over dit onderwerp, kort beantwoord.

Wat is Test Set?

Een verzameling data die je apart houdt om te testen hoe goed je getrainde AI-model werkt op nieuwe, onbekende informatie — zoals een proefexamen na de lessen.

Waarom is Test Set belangrijk?

Stel je voor dat je een kind leert fietsen. Je oefent elke dag op dezelfde straat, totdat het kind daar perfect kan rijden. Maar je weet pas écht of het kan fietsen als je het ergens anders laat proberen — een onbekende route, andere bochten, ander wegdek.

Hoe wordt Test Set toegepast?

Dat is precies wat een test set doet voor AI. Het is een verzameling voorbeelden die je bewust apart houdt tijdens het trainen van je model. Je gebruikt die voorbeelden niet om het model te leren, maar alleen om achteraf te controleren: hoe goed presteert het op data die het nog nooit eerder heeft gezien?

Deel: