Wat is Sigmoid?
Een wiskundige functie die getallen omzet naar een waarde tussen 0 en 1 — alsof je een dimmer gebruikt in plaats van een aan/uit-knop.

Wat is een sigmoid eigenlijk?
Stel je voor dat je een lichtknop hebt die niet simpelweg aan of uit staat, maar een zachte dimmer is. Je draait 'm naar rechts en het licht gaat geleidelijk van donker naar helder — nooit met een harde klik, maar altijd vloeiend. Dat is precies wat een sigmoid doet in een neuraal netwerk: het neemt een willekeurig getal (van heel negatief tot heel positief) en transformeert het naar een waarde tussen 0 en 1.
De sigmoid-functie tekent een S-vormige curve. Bij grote negatieve getallen komt er bijna 0 uit, bij grote positieve getallen bijna 1, en precies in het midden zit 0,5. Die vloeiende overgang maakt 'm ideaal voor situaties waarin je niet met harde ja/nee-antwoorden werkt, maar met kansen of geleidelijke overgangen.
Waar wordt het voor gebruikt?
In de begindagen van neurale netwerken was de sigmoid razend populair als activatiefunctie — het rekenelement dat bepaalt of een kunstmatig neuron 'vuurt' of niet. Net zoals een echt neuron in je hersenen niet alleen maar aan of uit staat, maar een signaal geleidelijk kan versterken, deed de sigmoid dat kunstmatig na.
Tegenwoordig gebruiken de meeste moderne netwerken andere functies (zoals ReLU) omdat die sneller trainen. Maar de sigmoid is nog steeds onmisbaar in specifieke situaties:
Bij de output van een classificatiemodel dat moet zeggen: "Hoe zeker ben ik dat dit een hond is?" — het antwoord is dan bijvoorbeeld 0,83 (83% zeker).
In LSTM-netwerken (een type geheugen-netwerk) waar de sigmoid bepaalt hoeveel informatie er wordt doorgegeven of vergeten — alsof je een mentale filter instelt.
Bij logistische regressie, een klassieke machine learning-techniek voor ja/nee-voorspellingen.
Een voorbeeld uit de praktijk
Stel: je bouwt een spam-filter. Het model berekent een score op basis van woorden in de e-mail. Een brutale score van +5,2 betekent "verdacht", -3,1 betekent "veilig". Maar je wilt geen rauwe getallen — je wilt een percentage: "85% kans op spam".
De sigmoid zet die +5,2 om in 0,995 (bijna zeker spam) en die -3,1 in 0,043 (vrijwel zeker geen spam). Die uitkomst kun je direct als kans interpreteren — handig voor je gebruiker en voor het model zelf om te leren wanneer het fout zat.
Waarom zie je 'm nu minder vaak?
De sigmoid heeft een achilleshiel: bij hele grote of hele kleine getallen wordt de curve zo plat dat er bijna niks meer verandert. Dat maakt het leren traag — alsof je aan een auto duwt die al vol op de rem staat. Nieuwere functies zoals ReLU (die gewoon 0 geeft bij negatieve getallen en het getal zelf bij positieve) leiden vaak tot snellere training.
Maar de sigmoid is niet dood — integendeel. Overal waar je een uitkomst tussen 0 en 1 nodig hebt (een kans, een percentage, een mate van zekerheid), is de sigmoid nog steeds de go-to-oplossing.
Waar kom je het tegen?
Je hoeft de sigmoid zelf niet te programmeren — vrijwel elk deep learning-framework heeft 'm ingebouwd:
TensorFlow en PyTorch (de twee grote frameworks voor het bouwen van neurale netwerken)
scikit-learn (voor klassieke machine learning zoals logistische regressie)
Als je een online tutorial volgt over neurale netwerken of binaire classificatie, kom je de sigmoid gegarandeerd tegen in de code — vaak als activation='sigmoid' in de laatste laag.
Wat kun je er nu mee?
Als je zelf aan de slag gaat met machine learning, onthoud dan: gebruik de sigmoid wanneer je output een kans of percentage moet zijn. Bij tussenlagen in moderne netwerken zijn er vaak betere opties, maar aan het eind — wanneer je model zijn definitieve oordeel geeft — is die vloeiende S-curve van de sigmoid vaak precies wat je nodig hebt. Het is de brug tussen abstracte berekeningen en antwoorden die mensen (en systemen) kunnen interpreteren.
Veelgestelde vragen over Sigmoid
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is Sigmoid?
Een wiskundige functie die getallen omzet naar een waarde tussen 0 en 1 — alsof je een dimmer gebruikt in plaats van een aan/uit-knop.
Waarom is Sigmoid belangrijk?
Stel je voor dat je een lichtknop hebt die niet simpelweg aan of uit staat, maar een zachte dimmer is. Je draait 'm naar rechts en het licht gaat geleidelijk van donker naar helder — nooit met een harde klik, maar altijd vloeiend. Dat is precies wat een sigmoid doet in een neuraal netwerk: het neemt een willekeurig getal (van heel negatief tot heel positief) en transformeert het naar een waarde tussen 0 en 1.
Hoe wordt Sigmoid toegepast?
De sigmoid-functie tekent een S-vormige curve. Bij grote negatieve getallen komt er bijna 0 uit, bij grote positieve getallen bijna 1, en precies in het midden zit 0,5. Die vloeiende overgang maakt 'm ideaal voor situaties waarin je niet met harde ja/nee-antwoorden werkt, maar met kansen of geleidelijke overgangen.