Wat is Lasso Regression?
Een manier om een AI-model 'op te schonen' door te bepalen welke inputvariabelen echt belangrijk zijn en welke je beter kunt negeren — alsof je opruimt in een overvolle gereedschapskist.

Wat is Lasso Regression eigenlijk?
Stel je voor: je wilt voorspellen hoeveel een huis kost. Je hebt honderd eigenschappen: aantal kamers, oppervlakte, bouwjaar, afstand tot station, kleur van de voordeur, aantal bomen in de straat, enzovoort. Sommige zijn belangrijk (oppervlakte), andere totaal irrelevant (voordeurkleur). Als je ze allemaal meerekent, wordt je model rommelig en onbetrouwbaar.
Lasso Regression is een techniek die dat automatisch oplost. Het staat voor "Least Absolute Shrinkage and Selection Operator" — maar dat hoef je niet te onthouden. Wat je wel moet weten: Lasso dwingt het model om een keuze te maken. Het zet de invloed van onbelangrijke variabelen letterlijk op nul, alsof je ze weggummet. Zo houd je alleen de variabelen over die er echt toe doen.
Het verschil met gewone lineaire regressie? Die probeert álle variabelen een beetje mee te tellen, ook de nutteloze. Lasso is strenger: het ruimt op.
Hoe werkt het?
Lasso voegt een "straf" toe aan het model. Elk extra variabel dat je gebruikt, kost punten. Het model moet nu kiezen: wil ik deze variabele echt meenemen, of levert hij te weinig op voor de straf die ik ervoor krijg?
Het resultaat: variabelen met weinig voorspellende waarde worden automatisch op nul gezet — ze verdwijnen uit het model. Zo krijg je een compacter, overzichtelijker model dat alleen de essentiële dingen vasthoudt. Dat heet ook wel "feature selection": het model selecteert zelf de belangrijkste kenmerken.
Een voorbeeld: je voorspelt ziekenhuisopnames op basis van 50 patiëntgegevens. Lasso verkleint dat naar, zeg, 8 variabelen die er echt toe doen (leeftijd, bloeddruk, medicijngebruik). De rest — schoenenmaat, favoriete kleur — verdwijnt.
Waarom zou jij hier iets aan hebben?
Lasso is handig als je:
Veel variabelen hebt, maar niet weet welke belangrijk zijn
Een simpel, uitlegbaar model wilt — niet een zwarte doos
Wilt voorkomen dat je model overfitting krijgt (te veel details uit de trainingsdata onthouden, waardoor het slecht generaliseert)
In de praktijk zie je Lasso bijvoorbeeld bij:
Marketing: welke factoren voorspellen of iemand een product koopt? (niet alle 100 gedragsvariabelen zijn relevant)
Gezondheidszorg: welke bloedwaarden voorspellen een ziekte?
Financiële analyse: welke economische indicatoren voorspellen een beurskoers?
Het grote voordeel: je krijgt niet alleen een voorspelling, maar ook inzicht. Je ziet letterlijk welke variabelen het model gebruikt — en welke niet. Dat maakt het model transparant.
Waar kom je het tegen?
Lasso Regression zit ingebakken in de meeste data science-tools. Je hoeft het niet zelf te bouwen. Denk aan:
Python-bibliotheken: scikit-learn, statsmodels
R: glmnet-package
Commerciële platforms: SPSS, SAS, MATLAB
Cloud-omgevingen: Azure Machine Learning, Google Vertex AI, AWS SageMaker
Data scientists gebruiken Lasso vaak als eerste stap: "Laat ik eens kijken welke variabelen er écht toe doen voordat ik een ingewikkelder model bouw."
Het verschil met Ridge Regression
Er bestaat ook een techniek die Ridge Regression heet — die lijkt op Lasso, maar werkt iets anders. Ridge verkleint de invloed van variabelen, maar zet ze niet helemaal op nul. Lasso is dus strenger: het schrapt echt variabelen weg. Welke je kiest hangt af van je doel: wil je een compacter model (Lasso) of juist alle variabelen een beetje behouden (Ridge)?
Soms combineer je beide in een techniek die Elastic Net heet — maar dat is voor een andere keer.
Wat kun je er nu mee?
Als je met data werkt en voorspellingen maakt, is Lasso een waardevol gereedschap. Het helpt je om door de ruis heen te kijken en te focussen op wat echt belangrijk is. En omdat het model compacter wordt, is het ook makkelijker uit te leggen aan anderen — bijvoorbeeld aan je baas of een klant.
Wil je zelf aan de slag? De meeste online cursussen over Machine Learning behandelen Lasso in de module over regressie. En in tools als scikit-learn is het letterlijk één regel code om het in te schakelen. Je hoeft geen wiskundig genie te zijn — de software doet het zware werk. Jij kiest alleen hoeveel "straf" je wilt geven voor extra variabelen, en het model doet de rest.
Veelgestelde vragen over Lasso Regression
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is Lasso Regression?
Een manier om een AI-model 'op te schonen' door te bepalen welke inputvariabelen echt belangrijk zijn en welke je beter kunt negeren — alsof je opruimt in een overvolle gereedschapskist.
Waarom is Lasso Regression belangrijk?
Stel je voor: je wilt voorspellen hoeveel een huis kost. Je hebt honderd eigenschappen: aantal kamers, oppervlakte, bouwjaar, afstand tot station, kleur van de voordeur, aantal bomen in de straat, enzovoort. Sommige zijn belangrijk (oppervlakte), andere totaal irrelevant (voordeurkleur). Als je ze allemaal meerekent, wordt je model rommelig en onbetrouwbaar.
Hoe wordt Lasso Regression toegepast?
Lasso Regression is een techniek die dat automatisch oplost. Het staat voor "Least Absolute Shrinkage and Selection Operator" — maar dat hoef je niet te onthouden. Wat je wel moet weten: Lasso dwingt het model om een keuze te maken. Het zet de invloed van onbelangrijke variabelen letterlijk op nul, alsof je ze weggummet. Zo houd je alleen de variabelen over die er echt toe doen.