ChatPaper.aiChatPaper

SAMed-2: Селективная модель сегментации медицинских изображений с расширенной памятью

SAMed-2: Selective Memory Enhanced Medical Segment Anything Model

July 4, 2025
Авторы: Zhiling Yan, Sifan Song, Dingjie Song, Yiwei Li, Rong Zhou, Weixiang Sun, Zhennong Chen, Sekeun Kim, Hui Ren, Tianming Liu, Quanzheng Li, Xiang Li, Lifang He, Lichao Sun
cs.AI

Аннотация

Недавние разработки в области "сегментации чего угодно" демонстрируют перспективы благодаря обучению на крупномасштабных данных, однако прямое применение таких моделей к медицинским изображениям остается сложной задачей из-за сложности медицинских данных, зашумленных аннотаций и требований к непрерывному обучению на разнообразных модальностях и анатомических структурах. В данной работе мы представляем SAMed-2 — новую базовую модель для сегментации медицинских изображений, построенную на архитектуре SAM-2. В частности, мы вводим временной адаптер в кодировщик изображений для учета корреляций между изображениями и механизм памяти, управляемый уверенностью, для хранения высокоточных признаков с последующим их извлечением. Эта стратегия, основанная на памяти, противостоит повсеместному шуму в крупномасштабных медицинских наборах данных и смягчает проблему катастрофического забывания при столкновении с новыми задачами или модальностями. Для обучения и оценки SAMed-2 мы создали MedBank-100k — всеобъемлющий набор данных, охватывающий семь методов визуализации и 21 задачу медицинской сегментации. Наши эксперименты как на внутренних бенчмарках, так и на 10 внешних наборах данных демонстрируют превосходную производительность по сравнению с современными базовыми методами в многозадачных сценариях. Код доступен по адресу: https://github.com/ZhilingYan/Medical-SAM-Bench.
English
Recent "segment anything" efforts show promise by learning from large-scale data, but adapting such models directly to medical images remains challenging due to the complexity of medical data, noisy annotations, and continual learning requirements across diverse modalities and anatomical structures. In this work, we propose SAMed-2, a new foundation model for medical image segmentation built upon the SAM-2 architecture. Specifically, we introduce a temporal adapter into the image encoder to capture image correlations and a confidence-driven memory mechanism to store high-certainty features for later retrieval. This memory-based strategy counters the pervasive noise in large-scale medical datasets and mitigates catastrophic forgetting when encountering new tasks or modalities. To train and evaluate SAMed-2, we curate MedBank-100k, a comprehensive dataset spanning seven imaging modalities and 21 medical segmentation tasks. Our experiments on both internal benchmarks and 10 external datasets demonstrate superior performance over state-of-the-art baselines in multi-task scenarios. The code is available at: https://github.com/ZhilingYan/Medical-SAM-Bench.
PDF101July 9, 2025