Direct naar inhoud
Alle termenGeneratieve AI & multimodaal

Wat is SAM?

Een AI-model dat automatisch objecten herkent en selecteert in afbeeldingen — je klikt één keer en het weet precies welk object je bedoelt.

Wat is SAM

Wat is SAM eigenlijk?

SAM staat voor Segment Anything Model — een AI-model van Meta dat razendsnel objecten in afbeeldingen kan herkennen en selecteren. Stel je voor: je hebt een foto van een drukke markt en wilt alleen de appeltafel eruit lichten. Normaal moet je met Photoshop minutenlang knippen en selecteren. Met SAM klik je één keer op een appel en het model snapt meteen: "Ah, je bedoelt deze hele stapel fruit" — en selecteert het voor je.

Het bijzondere is dat SAM dit kan zonder dat je het speciaal hebt getraind op appels of markten. Het heeft geleerd hoe objecten van elkaar te onderscheiden — of het nu gaat om een hond, een gebouw, een gezicht of een verfvlek. Die algemene kennis past het toe op elke nieuwe foto.

Meta heeft dit model getraind op meer dan een miljard maskers (dat zijn die selecties rond objecten) uit 11 miljoen afbeeldingen. Daardoor heeft het een soort universeel begrip ontwikkeld van waar het ene object eindigt en het andere begint.

Hoe werkt het eigenlijk?

SAM werkt in drie stappen. Eerst analyseert het de hele afbeelking en maakt een soort "kaart" van alle mogelijke objecten — ook al zie je die nog niet. Denk aan een topografische kaart met alle heuvels en dalen, ook al heb je nog niet gezegd waar je heen wilt wanderen.

Vervolgens geef jij een hint: je klikt op een punt, trekt een vierkantje of typt "de kat op de bank". Het model kijkt naar die hint en denkt: "Oké, van alle objecten die ik zie, welke past het beste bij wat deze persoon bedoelt?"

Tot slot tekent het een precieze contour — geen ruwe rechthoek, maar een pixelperfecte omlijning die precies de randen van het object volgt. Zelfs als dat object half verscholen zit achter iets anders.

Het mooie: dit gebeurt in een fractie van een seconde. Op een moderne computer verwerkt SAM een afbeelding in ongeveer 50 milliseconden — sneller dan je kunt knipperen.

Waarom zou jij hier iets aan hebben?

Als je ooit foto's bewerkt, mockups maakt of productfotografie doet, is dit een enorme tijdwinst. Geen gedoe meer met lassotools en fijne borsteltjes om haren of randen te selecteren. Eén klik en je hebt je selectie.

In medische toepassingen gebruiken radiologen dit soort technologie om sneller tumoren of afwijkingen aan te wijzen op scans. In de landbouw helpt het bij het tellen van gewassen op dronefoto's. En in videoproductie kunnen editors sneller objecten of personen uit beelden halen.

Maar ook voor gewone gebruikers wordt het steeds toegankelijker: denk aan apps die automatisch de achtergrond van je selfie vervangen, of tools die producten uit catalogi knippen voor je webshop.

Waar kom je het tegen?

SAM zelf is een open-source model dat je via Meta's GitHub kunt downloaden. Maar de technologie erachter duikt inmiddels op in allerlei producten:

  • Adobe Photoshop heeft vergelijkbare functionaliteit ingebouwd onder namen als "Object Selection Tool" en "Remove Background"

  • Canva gebruikt dit soort segmentatie voor z'n "Background Remover"

  • Runway integreert het in video-editing tools

  • Microsoft Designer en Clipdrop bieden vergelijkbare one-click achtergrondverwijdering

  • Medische software zoals 3D Slicer experimenteert ermee voor snellere scan-analyse

Daarnaast zie je het terug in specialistische tools voor architectuur (gebouwen uit luchtfoto's halen), retail (producten automatisch uitsnijden) en onderzoek (objecten tellen op satellietbeelden).

En de grenzen dan?

SAM is indrukwekkend, maar niet perfect. Bij hele complexe scènes — denk aan een wirwar van takken en bladeren — kan het soms te veel of te weinig selecteren. Ook bij doorzichtige of reflecterende objecten (glas, water, spiegels) worstelt het model nog weleens.

En hoewel het "alles" kan segmenteren, begrijpt het niet altijd wat iets is. Het ziet wel dat er een object is, maar weet niet of het een appel of een tomaat is. Daarvoor heb je aanvullende classificatie-modellen nodig.


Wil je ermee experimenteren? Meta's SAM-demo is gratis te proberen via hun onderzoekswebsite. Upload een foto, klik wat rond en zie hoe het model reageert. Of check of je favoriete fotobewerker al vergelijkbare functionaliteit heeft ingebouwd — de kans is groot dat je het al gebruikt zonder het te weten.

FAQ

Veelgestelde vragen over SAM

De drie meest gestelde vragen over dit onderwerp, kort beantwoord.

Wat is SAM?

Een AI-model dat automatisch objecten herkent en selecteert in afbeeldingen — je klikt één keer en het weet precies welk object je bedoelt.

Waarom is SAM belangrijk?

SAM staat voor Segment Anything Model — een AI-model van Meta dat razendsnel objecten in afbeeldingen kan herkennen en selecteren. Stel je voor: je hebt een foto van een drukke markt en wilt alleen de appeltafel eruit lichten. Normaal moet je met Photoshop minutenlang knippen en selecteren. Met SAM klik je één keer op een appel en het model snapt meteen: "Ah, je bedoelt deze hele stapel fruit" — en selecteert het voor je.

Hoe wordt SAM toegepast?

Het bijzondere is dat SAM dit kan zonder dat je het speciaal hebt getraind op appels of markten. Het heeft geleerd hoe objecten van elkaar te onderscheiden — of het nu gaat om een hond, een gebouw, een gezicht of een verfvlek. Die algemene kennis past het toe op elke nieuwe foto.

Deel:

Besproken in artikelen

Waar lees je meer over SAM op dit platform?