SAM 2: 이미지와 비디오에서 모든 것 분할하기
SAM 2: Segment Anything in Images and Videos
August 1, 2024
저자: Nikhila Ravi, Valentin Gabeur, Yuan-Ting Hu, Ronghang Hu, Chaitanya Ryali, Tengyu Ma, Haitham Khedr, Roman Rädle, Chloe Rolland, Laura Gustafson, Eric Mintun, Junting Pan, Kalyan Vasudev Alwala, Nicolas Carion, Chao-Yuan Wu, Ross Girshick, Piotr Dollár, Christoph Feichtenhofer
cs.AI
초록
우리는 이미지와 비디오에서 프롬프트 기반 시각적 분할 문제를 해결하기 위한 기초 모델인 Segment Anything Model 2(SAM 2)를 소개합니다. 사용자 상호작용을 통해 모델과 데이터를 개선하는 데이터 엔진을 구축하여, 현재까지 가장 큰 규모의 비디오 분할 데이터셋을 수집했습니다. 우리의 모델은 실시간 비디오 처리를 위한 스트리밍 메모리를 갖춘 간단한 트랜스포머 아키텍처입니다. 우리의 데이터로 학습된 SAM 2는 다양한 작업에서 강력한 성능을 보여줍니다. 비디오 분할에서는 기존 접근법보다 3배 적은 상호작용으로 더 나은 정확도를 달성했으며, 이미지 분할에서는 Segment Anything Model(SAM)보다 더 정확하고 6배 빠른 성능을 보입니다. 우리의 데이터, 모델, 그리고 통찰력이 비디오 분할 및 관련 인지 작업에 있어 중요한 이정표가 될 것이라 믿습니다. 우리는 모델의 한 버전, 데이터셋, 그리고 인터랙티브 데모를 공개합니다.
English
We present Segment Anything Model 2 (SAM 2), a foundation model towards
solving promptable visual segmentation in images and videos. We build a data
engine, which improves model and data via user interaction, to collect the
largest video segmentation dataset to date. Our model is a simple transformer
architecture with streaming memory for real-time video processing. SAM 2
trained on our data provides strong performance across a wide range of tasks.
In video segmentation, we observe better accuracy, using 3x fewer interactions
than prior approaches. In image segmentation, our model is more accurate and 6x
faster than the Segment Anything Model (SAM). We believe that our data, model,
and insights will serve as a significant milestone for video segmentation and
related perception tasks. We are releasing a version of our model, the dataset
and an interactive demo.Summary
AI-Generated Summary