Wat is Common Sense Reasoning?
Het vermogen van AI om vanzelfsprekende dagelijkse kennis toe te passen — zoals dat een nat boek niet meer in een rugzak past, of dat je geen soep met een vork eet.

Wat is Common Sense Reasoning eigenlijk?
Je weet dat een ei breekt als je het laat vallen. Dat je geen boodschappen doet in je pyjama. Dat een kat niet groter is dan een huis. Dit soort 'gewoon-weten' noemen we common sense — dingen die zo vanzelfsprekend zijn dat niemand ze opschrijft.
Voor AI-systemen is dit juist heel lastig. Een taalmodel kan je precies uitleggen hoe fotosynthese werkt, maar struikelt over simpele vragen als: "Als ik een glas water omgooi op tafel, kan ik dan nog op die tafel schrijven?" Het model heeft miljoenen teksten gelezen, maar mist de vanzelfsprekende ervaring die jij na 30 jaar leven hebt opgebouwd.
Common Sense Reasoning gaat over het vermogen van AI om deze alledaagse logica toe te passen — om te redeneren over oorzaak en gevolg, fysieke eigenschappen, sociale situaties en praktische consequenties zoals een mens dat doet.
Waarom is dit zo moeilijk voor AI?
Mensen leren common sense door de wereld in te bewegen. Je hebt als kind gemerkt dat water nat maakt, dat hete dingen pijn doen, dat mensen boos worden als je ze onderbreekt. Deze kennis zit diep in je intuïtie verankerd.
Een AI-model leert uit tekst. In teksten staat zelden: "Water is nat" of "Katten passen niet in een brievenbus" — dat zijn zulke vanzelfsprekende waarheden dat niemand ze opschrijft. Het model moet dit soort kennis afleiden uit context, en dat gaat vaak mis.
Een klassiek voorbeeld: vraag een model "Kan ik een olifant in mijn rugzak stoppen?" Een goed model zegt nee, maar vroege systemen gaven bizarre redeneringen of zeiden domweg ja — omdat ze geen intuïtief begrip hebben van afmetingen, gewicht en fysieke beperkingen.
Hoe werkt het eigenlijk?
Onderzoekers proberen common sense op verschillende manieren in AI te krijgen:
Knowledge graphs — databases vol alledaagse feiten ("ijs smelt boven 0°C", "vogels kunnen vliegen", "glas breekt bij vallen") die het model kan raadplegen
Fysieke simulaties — AI trainen in virtuele omgevingen waar ze zelf ervaren dat voorwerpen vallen, botsen en kapotgaan
Multitasking-training — modellen op honderden verschillende redeneertaken trainen, zodat ze patronen in oorzaak-gevolg-relaties leren herkennen
Wereldmodellen — systemen die een intern model bouwen van hoe de wereld werkt, en nieuwe situaties daaraan toetsen
Moderne taalmodellen zoals GPT-4, Claude of Gemini scoren steeds beter op common sense-tests, maar maken nog steeds verrassende denkfouten — vooral bij situaties die net iets afwijken van wat ze in trainingsdata gezien hebben.
Waar kom je het tegen?
Je merkt het verschil in praktische AI-toepassingen:
Chatbots die vreemde adviezen geven ("poets je tanden met azijn") omdat ze niet snappen wat praktisch veilig of verstandig is
Huisassistenten die het licht aandoen terwijl je slaapt, omdat ze niet begrijpen dat mensen 's nachts rust willen
Zelfrijdende auto's die moeten leren dat een plastic zak op de weg ongevaarlijk is, maar een betonblok niet
Recruitmenttools die kandidaten afwijzen om bizarre redenen, omdat ze sociale context missen
Medische AI die diagnoses stelt zonder te beseffen dat bepaalde symptoomcombinaties fysiek onmogelijk zijn
Benchmarks zoals PIQA, HellaSwag of WinoGrande testen specifiek common sense — met vragen over alledaagse situaties waar mensen moeiteloos doorheen redeneren.
Een voorbeeld uit de praktijk
Stel: een productie-AI moet bepalen of een bestelling haalbaar is. Een klant vraagt 10.000 custom t-shirts, levering morgen. De AI ziet: voorraad beschikbaar, printer werkt, verzending mogelijk. Conclusie: "Ja, kan!"
Maar een mens denkt: custom-print op 10.000 shirts kost minstens drie dagen. Morgen is fysiek onmogelijk. Die redenering — over tijd, productieprocessen, menselijke capaciteit — is common sense. Zonder die kennis accepteert de AI onmogelijke opdrachten.
Of een AI-assistent die zegt: "Plant je tomaten in december" omdat het artikel over tomaten planten geen maand noemde. Het model mist de kennis dat planten seizoensgebonden zijn en dat december in Nederland te koud is.
Waarom maakt dit verschil?
AI zonder common sense is gevaarlijk in de praktijk. Het geeft advies dat technisch klopt maar praktisch rampzalig is. Het maakt beslissingen die tegen de logica van de echte wereld ingaan. Het verliest je vertrouwen op het moment dat het iets doms zegt over een simpele situatie.
Voor bedrijven betekent dit: AI-uitkomsten altijd toetsen aan gezond verstand. Een model kan briljant zijn in patroonherkenning, maar compleet de mist ingaan bij alledaagse logica.
Wat kun je ermee?
Als je met AI werkt, test dan bewust de common sense:
Stel bizarre maar logische vragen: "Kan ik met een paraplu de regen stoppen?" (nee, je blijft zelf droog maar de regen stopt niet)
Vraag om consequenties: "Als ik dit doe, wat gebeurt er dan?"
Check fysieke onmogelijkheden: afmetingen, tijdsduur, gewicht
Let op sociale context: zou een mens dit ook zo doen/zeggen?
Hoe beter je snapt waar AI's common sense tekortschiet, hoe slimmer je ze inzet — en hoe beter je hun antwoorden kunt controleren. Want wat vanzelfsprekend lijkt voor jou, is voor een AI vaak de moeilijkste opgave.
Veelgestelde vragen over Common Sense Reasoning
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is Common Sense Reasoning?
Het vermogen van AI om vanzelfsprekende dagelijkse kennis toe te passen — zoals dat een nat boek niet meer in een rugzak past, of dat je geen soep met een vork eet.
Waarom is Common Sense Reasoning belangrijk?
Je weet dat een ei breekt als je het laat vallen. Dat je geen boodschappen doet in je pyjama. Dat een kat niet groter is dan een huis. Dit soort 'gewoon-weten' noemen we common sense — dingen die zo vanzelfsprekend zijn dat niemand ze opschrijft.
Hoe wordt Common Sense Reasoning toegepast?
Voor AI-systemen is dit juist heel lastig. Een taalmodel kan je precies uitleggen hoe fotosynthese werkt, maar struikelt over simpele vragen als: "Als ik een glas water omgooi op tafel, kan ik dan nog op die tafel schrijven?" Het model heeft miljoenen teksten gelezen, maar mist de vanzelfsprekende ervaring die jij na 30 jaar leven hebt opgebouwd.