EfficientViT-SAM: Ускоренная модель Segment Anything без потери производительности
EfficientViT-SAM: Accelerated Segment Anything Model Without Performance Loss
February 7, 2024
Авторы: Zhuoyang Zhang, Han Cai, Song Han
cs.AI
Аннотация
Мы представляем EfficientViT-SAM — новое семейство ускоренных моделей для сегментации произвольных объектов. Мы сохраняем легковесный кодировщик подсказок и декодер масок из SAM, заменяя при этом тяжелый кодировщик изображений на EfficientViT. Для обучения мы начинаем с дистилляции знаний из кодировщика изображений SAM-ViT-H в EfficientViT. Затем проводим сквозное обучение на наборе данных SA-1B. Благодаря эффективности и емкости EfficientViT, модель EfficientViT-SAM демонстрирует ускорение в 48.9 раз при измерении на TensorRT на GPU A100 по сравнению с SAM-ViT-H, не жертвуя при этом производительностью. Наш код и предобученные модели доступны по адресу https://github.com/mit-han-lab/efficientvit.
English
We present EfficientViT-SAM, a new family of accelerated segment anything
models. We retain SAM's lightweight prompt encoder and mask decoder while
replacing the heavy image encoder with EfficientViT. For the training, we begin
with the knowledge distillation from the SAM-ViT-H image encoder to
EfficientViT. Subsequently, we conduct end-to-end training on the SA-1B
dataset. Benefiting from EfficientViT's efficiency and capacity,
EfficientViT-SAM delivers 48.9x measured TensorRT speedup on A100 GPU over
SAM-ViT-H without sacrificing performance. Our code and pre-trained models are
released at https://github.com/mit-han-lab/efficientvit.