SAM 2: Segmenteren van Alles in Afbeeldingen en Video's
SAM 2: Segment Anything in Images and Videos
August 1, 2024
Auteurs: Nikhila Ravi, Valentin Gabeur, Yuan-Ting Hu, Ronghang Hu, Chaitanya Ryali, Tengyu Ma, Haitham Khedr, Roman Rädle, Chloe Rolland, Laura Gustafson, Eric Mintun, Junting Pan, Kalyan Vasudev Alwala, Nicolas Carion, Chao-Yuan Wu, Ross Girshick, Piotr Dollár, Christoph Feichtenhofer
cs.AI
Samenvatting
We presenteren Segment Anything Model 2 (SAM 2), een foundation model gericht op het oplossen van promptbare visuele segmentatie in afbeeldingen en video's. We hebben een data-engine ontwikkeld, die het model en de data verbetert via gebruikersinteractie, om de grootste video-segmentatiedataset tot nu toe te verzamelen. Ons model is een eenvoudige transformer-architectuur met streaminggeheugen voor real-time videoverwerking. SAM 2, getraind op onze data, levert sterke prestaties op een breed scala aan taken. Bij video-segmentatie observeren we een betere nauwkeurigheid, waarbij we 3x minder interacties nodig hebben dan bij eerdere benaderingen. Bij beeldsegmentatie is ons model nauwkeuriger en 6x sneller dan het Segment Anything Model (SAM). Wij geloven dat onze data, model en inzichten een belangrijke mijlpaal zullen vormen voor video-segmentatie en gerelateerde perceptietaken. We brengen een versie van ons model, de dataset en een interactieve demo uit.
English
We present Segment Anything Model 2 (SAM 2), a foundation model towards
solving promptable visual segmentation in images and videos. We build a data
engine, which improves model and data via user interaction, to collect the
largest video segmentation dataset to date. Our model is a simple transformer
architecture with streaming memory for real-time video processing. SAM 2
trained on our data provides strong performance across a wide range of tasks.
In video segmentation, we observe better accuracy, using 3x fewer interactions
than prior approaches. In image segmentation, our model is more accurate and 6x
faster than the Segment Anything Model (SAM). We believe that our data, model,
and insights will serve as a significant milestone for video segmentation and
related perception tasks. We are releasing a version of our model, the dataset
and an interactive demo.