Direct naar inhoud
Alle termenWiskundige & statistische basis

Wat is L1 Norm?

Een manier om te meten hoeveel verschillende waardes samen optellen — gebruikt in AI om modellen te laten 'opruimen' door kleine, onbelangrijke verbindingen te verwijderen.

Wat is L1 Norm

Wat is de L1 Norm eigenlijk?

Stel je voor dat je een rugzak inpakt voor een reis. Je hebt 20 spullen, elk met een eigen gewicht. De L1 Norm is simpelweg: tel alle gewichten bij elkaar op, zonder te kijken naar positief of negatief — gewoon het totale gewicht dat je meesleept.

In AI-modellen werkt het net zo. Een neural network heeft duizenden 'gewichten' — getallen die bepalen hoe sterk verbindingen tussen kunstmatige hersencellen zijn. De L1 Norm telt alle absolute waardes van die gewichten bij elkaar op. Als een gewicht -0,3 is, telt het als 0,3. Als een gewicht 2,1 is, telt het als 2,1. Optellen, klaar.

Waarom zou je dat willen weten? Omdat je hiermee kunt sturen hoeveel 'ballast' je model meedraagt.

Waarom zou jij hier iets aan hebben?

AI-modellen hebben de neiging om ingewikkeld te worden. Ze maken duizenden verbindingen, waarvan sommige nauwelijks bijdragen aan het eindresultaat. Dat maakt ze traag, groot en moeilijk te begrijpen.

De L1 Norm helpt daarbij op te ruimen. Als je tijdens de training van een model een 'boete' toevoegt op basis van de L1 Norm, gebeurt er iets bijzonders: het model gaat actief proberen om zoveel mogelijk gewichten precies op nul te zetten. Het is alsof je tegen je rugzak zegt: "Hoe lichter, hoe beter — gooi alles weg wat je niet echt nodig hebt."

Dit heet L1 Regularisatie of Lasso. Het resultaat is een dunner, efficiënter model dat sneller werkt en makkelijker uit te leggen is. In plaats van 10.000 gewichten heb je er misschien nog maar 200 over die echt meetellen.

Hoe werkt het in de praktijk?

Stel: een bedrijf bouwt een AI-model dat huizenprijzen voorspelt op basis van 50 kenmerken (oppervlakte, aantal kamers, afstand tot station, bouwjaar, enzovoort). Veel van die kenmerken blijken achteraf nauwelijks invloed te hebben.

Als je L1 Regularisatie toepast, gaat het model vanzelf die onbelangrijke kenmerken negeren — hun gewichten worden letterlijk nul. Het eindmodel gebruikt misschien nog maar 8 kenmerken. Dat maakt het sneller, goedkoper om te draaien, en je begrijpt beter waarom het model bepaalde voorspellingen doet.

Een ander voordeel: kleinere modellen zijn makkelijker in te zetten op apparaten met beperkte rekenkracht, zoals smartphones of slimme thermostaten.

Het verschil met andere manieren van meten

Er bestaat ook een L2 Norm, die alle gewichten kwadrateert voordat ze opgeteld worden. Die werkt anders: L2 maakt alle gewichten een beetje kleiner, maar duwt ze zelden helemaal naar nul. L1 is radicaler — het snijdt weg wat niet belangrijk is.

Denk aan twee tuiniers: de ene (L2) snoeit alle takken een beetje, de andere (L1) kapt hele takken weg die toch geen vruchten dragen.

Waar kom je het tegen?

De L1 Norm wordt toegepast in veel gebieden:

  • Feature selection — automatisch kiezen welke gegevens wel en niet meetellen

  • Compressie van modellen — neurale netwerken kleiner maken voor smartphones of edge-apparaten

  • Sparse learning — modellen bouwen die bewust 'dunner' zijn en daardoor sneller werken

  • Medische AI — bijvoorbeeld: welke bloedwaarden zijn echt belangrijk voor een diagnose?

  • Aanbevelingssystemen — van duizenden gebruikerskenmerken alleen de relevante overhouden

In tools zoals scikit-learn (Python) kun je L1 Regularisatie aanzetten met één parameter. Ook in frameworks als TensorFlow en PyTorch is het standaard beschikbaar.

Wat kun je ermee?

Als je zelf AI-modellen bouwt of laat bouwen, is de L1 Norm een handige hefboom. Het helpt je modellen simpeler, sneller en begrijpelijker te maken — zonder dat je handmatig hoeft uit te zoeken welke gegevens je kunt weglaten. Het model doet dat opruimwerk voor je, gestuurd door de wiskunde van optellen. En dat maakt het verschil tussen een log, ondoorzichtig model en een dat je met vertrouwen kunt uitleggen en inzetten.

FAQ

Veelgestelde vragen over L1 Norm

De drie meest gestelde vragen over dit onderwerp, kort beantwoord.

Wat is L1 Norm?

Een manier om te meten hoeveel verschillende waardes samen optellen — gebruikt in AI om modellen te laten 'opruimen' door kleine, onbelangrijke verbindingen te verwijderen.

Waarom is L1 Norm belangrijk?

Stel je voor dat je een rugzak inpakt voor een reis. Je hebt 20 spullen, elk met een eigen gewicht. De L1 Norm is simpelweg: tel alle gewichten bij elkaar op, zonder te kijken naar positief of negatief — gewoon het totale gewicht dat je meesleept.

Hoe wordt L1 Norm toegepast?

In AI-modellen werkt het net zo. Een neural network heeft duizenden 'gewichten' — getallen die bepalen hoe sterk verbindingen tussen kunstmatige hersencellen zijn. De L1 Norm telt alle absolute waardes van die gewichten bij elkaar op. Als een gewicht -0,3 is, telt het als 0,3. Als een gewicht 2,1 is, telt het als 2,1. Optellen, klaar.

Deel: