Wat is Chain Rule?
Een wiskundige regel waarmee je afgeleiden van samengestelde functies berekent — cruciaal voor hoe AI-modellen leren van hun fouten tijdens training.

Wat is de Chain Rule eigenlijk?
Stel je voor dat je een recept volgt met meerdere stappen: je maakt eerst een saus, die saus doe je over pasta, en die pasta serveer je op een bord. Als je nu wilt weten hoe een kleine verandering in de hoeveelheid zout in de saus uiteindelijk het eindresultaat beïnvloedt, moet je door al die stappen heen redeneren. Dat is precies wat de Chain Rule doet in de wiskunde.
De Chain Rule is een techniek om te berekenen hoe een kleine verandering aan het begin van een proces zich doorvertaalt naar het einde — wanneer dat proces uit meerdere gekoppelde stappen bestaat. In AI-termen: als je input door laag na laag van een neuraal netwerk gaat, helpt de Chain Rule om terug te rekenen hoe elke tussenlaag heeft bijgedragen aan de uiteindelijke fout in de voorspelling.
Waarom is dit belangrijk voor AI?
AI-modellen leren door hun fouten. Wanneer een model een verkeerde voorspelling maakt, moet het uitzoeken welke interne parameters (gewichten) aangepast moeten worden om die fout te verkleinen. Maar die parameters zitten verstopt in verschillende lagen van het netwerk.
De Chain Rule maakt het mogelijk om vanaf de uitvoer terug te werken naar de invoer — laag voor laag — en voor elke laag te berekenen: "hoeveel droeg jij bij aan de fout?". Dit proces heet backpropagation, en zonder de Chain Rule zou het onmogelijk zijn om diepe neurale netwerken efficiënt te trainen.
Denk aan een bedrijf met meerdere afdelingen: als de verkoopcijfers tegenvallen, wil je weten of het ligt aan marketing, productie, of inkoop. De Chain Rule helpt je die verantwoordelijkheid toe te wijzen door de keten van oorzaak en gevolg te ontrafelen.
Hoe werkt het in de praktijk?
Bij training van een neuraal netwerk gebeurt het volgende:
Het model maakt een voorspelling door data door alle lagen heen te sturen (voorwaartse richting)
Er wordt gemeten hoe ver die voorspelling afwijkt van het juiste antwoord (de fout of 'loss')
Nu begint het terugrekenwerk: vanaf de laatste laag wordt met de Chain Rule berekend hoeveel elke laag heeft bijgedragen aan die fout
Elke laag past zijn parameters een klein beetje aan om die fout te verkleinen
Dit proces herhaalt zich duizenden keren totdat het model goed genoeg presteert
Zonder de Chain Rule zou je voor elke parameter afzonderlijk moeten testen wat het effect is — bij miljoenen parameters zou dat jaren duren. De Chain Rule maakt dit in één efficiënte beweging mogelijk.
Waar kom je het tegen?
De Chain Rule werkt op de achtergrond in vrijwel alle moderne AI-systemen:
Elk neuraal netwerk dat getraind wordt met gradient descent gebruikt de Chain Rule via backpropagation
Frameworks zoals TensorFlow en PyTorch passen de Chain Rule automatisch toe wanneer je een model traint
Ook bij het fine-tunen van grote taalmodellen zoals GPT, Claude of Gemini wordt de Chain Rule gebruikt om het model aan te passen aan specifieke taken
Bij computer vision-modellen die beelden herkennen of genereren (denk aan Stable Diffusion) gebeurt hetzelfde
Je ziet het niet direct, maar elke keer dat een AI-systeem "leert" van nieuwe data, past het intern de Chain Rule toe om uit te zoeken welke onderdelen bijgesteld moeten worden.
Wat betekent dit voor jou?
Als gebruiker of ondernemer hoef je de wiskundige details niet te kennen — moderne AI-tools doen het rekkenwerk automatisch. Maar het is goed om te begrijpen dat AI-modellen niet magisch leren: ze rekenen systematisch uit hoe elke interne stap bijdraagt aan het eindresultaat, en passen dat stap voor stap aan.
Dit verklaart ook waarom training van grote modellen zo rekenkracht vraagt: voor elke voorspelling moeten er miljoenen van deze berekeningen worden uitgevoerd, steeds opnieuw. Het verklaart ook waarom sommige aanpassingen aan een model lang duren — het netwerk moet door al zijn lagen heen werken om uit te zoeken wat waar moet veranderen.
Als je zelf experimenteert met AI-training of fine-tuning, weet dan dat de Chain Rule stilletjes op de achtergrond werkt om jouw model slimmer te maken — één kleine aanpassing per keer.
Veelgestelde vragen over Chain Rule
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is Chain Rule?
Een wiskundige regel waarmee je afgeleiden van samengestelde functies berekent — cruciaal voor hoe AI-modellen leren van hun fouten tijdens training.
Waarom is Chain Rule belangrijk?
Stel je voor dat je een recept volgt met meerdere stappen: je maakt eerst een saus, die saus doe je over pasta, en die pasta serveer je op een bord. Als je nu wilt weten hoe een kleine verandering in de hoeveelheid zout in de saus uiteindelijk het eindresultaat beïnvloedt, moet je door al die stappen heen redeneren. Dat is precies wat de Chain Rule doet in de wiskunde.
Hoe wordt Chain Rule toegepast?
De Chain Rule is een techniek om te berekenen hoe een kleine verandering aan het begin van een proces zich doorvertaalt naar het einde — wanneer dat proces uit meerdere gekoppelde stappen bestaat. In AI-termen: als je input door laag na laag van een neuraal netwerk gaat, helpt de Chain Rule om terug te rekenen hoe elke tussenlaag heeft bijgedragen aan de uiteindelijke fout in de voorspelling.