Direct naar inhoud
Weetjes & achtergrond

Waarom AI geen wiskunde kan (en toch wel)

ChatGPT schrijft vlekkeloos een gedicht, maar verzandt in 23 × 47. Hoe kan dat? En wat betekent het voor jouw gebruik van AI?

FD
Frank DuindamFrank Duindam
Frank DuindamOprichter & hoofdredacteur
Bijgewerkt 4 min leestijd
Wiskundige symbolen die oplossen in vloeiende lichtstromen en neurale patronen

Je vraagt ChatGPT om een gedicht over herfst — en krijgt binnen seconden iets moois. Vervolgens vraag je: "Hoeveel is 23 vermenigvuldigd met 47?" — en het antwoord klopt ineens niet meer. Of je vraagt om een rekensom met breuken op te lossen, en het model raakt de draad kwijt halverwege.

Hoe kan een systeem dat Shakespeare nabootst, struikelen over basiswiskunde?

Taalmodellen zijn geen rekenmachines

Het belangrijkste om te begrijpen: ChatGPT, Claude en andere grote taalmodellen zijn geen computers die rekenen. Ze zijn patroonherkenners voor taal. Stel je voor dat je iemand leert praten door honderdduizenden gesprekken te laten lezen — zonder ooit uit te leggen wat optellen betekent. Die persoon zou wel kunnen zeggen "twee plus twee is vier", omdat dat overal zo staat. Maar als je vraagt "hoeveel is 8.472 plus 3.981?", dan moet-ie gokken op basis van wat lijkt te kloppen.

Zo werkt een taalmodel ook. Het heeft miljoenen voorbeelden gezien waarin staat dat "2 + 2 = 4", dus dat "weet" het. Maar bij nieuwe, onbekende rekensommen probeert het een antwoord te voorspellen dat past in het patroon — zonder daadwerkelijk te rekenen.

Waarom het bij eenvoudige sommen soms wél goed gaat

Kleine getallen en standaard rekensommen komen zo vaak voor in trainingsdata dat het model ze uit zijn hoofd kent. "5 × 6 = 30" — dat heeft-ie duizenden keren gezien. Maar bij 23 × 47? Dat staat veel minder vaak letterlijk uitgeschreven in teksten. Het model moet dan gaan gokken, en die gok gaat regelmatig mis.

Het gekke: hoe complexer de som, hoe groter de kans op fouten. Niet omdat het model "dom" is, maar omdat het niet ontworpen is om te rekenen. Het is ontworpen om de volgende zin te voorspellen.

Hoe AI het tóch oplost: tools aan boord

Gelukkig hebben veel AI-systemen dit probleem onderkend. ChatGPT (met GPT-4) heeft bijvoorbeeld Code Interpreter — een functie die Python-code kan draaien. Als je een rekensom stelt, schrijft het model niet zelf het antwoord, maar genereert het een stukje programmacode dat de som uitrekent. Die code wordt dan uitgevoerd, en het echte antwoord komt terug.

Dat ziet er van binnenuit ongeveer zo uit:

  • Jij vraagt: "Hoeveel is 23 × 47?"

  • Het model denkt: "Dit is een rekensom, ik ga Python gebruiken."

  • Het schrijft intern: 23 * 47

  • Python rekent uit: 1081

  • Het model geeft jou het antwoord: "Dat is 1.081."

Hetzelfde geldt voor ingewikkelde grafieken, statistiek of data-analyse. Het model roept een hulpmiddel aan dat wél precies kan rekenen.

Waarom het toch nog misgaat

Ook met tools blijft het opletten. Soms herkent het model niet dat er gerekend moet worden, en gokt het toch. Of het maakt een fout in de opdracht die het aan Python geeft. Voorbeeld: je vraagt om een percentage te berekenen, maar het model interpreteert je vraag verkeerd en rekent iets anders uit. De uitkomst klopt wiskundig, maar het was niet wat je bedoelde.

Daarom is het verstandig om bij belangrijke berekeningen altijd:

  • Het antwoord zelf globaal te checken ("klopt dit ongeveer?")

  • Te vragen: "Kun je laten zien hoe je dit berekent?"

  • Bij twijfel een tweede tool te gebruiken (rekenmachine, spreadsheet)

Wat betekent dit voor jouw gebruik?

Als je AI gebruikt voor creatieve of tekstuele taken — samenvattingen, e-mails, brainstormen — dan merk je hier weinig van. Maar zodra cijfers in het spel komen, wees dan alert. Vraag bij financiële berekeningen, data-analyse of technische sommen expliciet om een stap-voor-stap uitwerking. En vertrouw niet blindelings op één antwoord.

De kracht van AI zit in het combineren van taken. Het kan uitleggen hoe een formule werkt, een berekening opzetten, en vervolgens een tool aanroepen om het zware werk te doen. Maar jij blijft de eindverantwoordelijke die checkt of het klopt.

Het grote plaatje

Dat taalmodellen niet van nature kunnen rekenen, is geen bug — het is hoe ze werken. Ze zijn gebouwd om taal te begrijpen en te produceren, niet om wiskundige bewijzen te leveren. Maar door slim ontwerp (tools inbouwen, code laten draaien) kunnen ze alsnog betrouwbaar rekenen.

Voor jou als gebruiker is het goed om te weten: AI is geen orakel dat alles weet en kan. Het is een hulpmiddel dat briljant is in bepaalde dingen (taal, patroonherkenning, creatief denken) en zwakker in andere (exact rekenen, feitenkennis zonder bron). Zodra je dat in je achterhoofd houdt, kun je AI veel effectiever inzetten.

Morgen kun je dit doen: stel ChatGPT of Claude een rekensom en vraag expliciet: "Kun je dit met code uitrekenen en me laten zien hoe je het aanpakt?" Je ziet dan zelf wanneer het model een tool gebruikt — en dat geeft je vertrouwen in het antwoord.