ChatPaper.aiChatPaper

MedSAMix : Une approche de fusion de modèles sans entraînement pour la segmentation d'images médicales

MedSAMix: A Training-Free Model Merging Approach for Medical Image Segmentation

August 14, 2025
papers.authors: Yanwu Yang, Guinan Su, Jiesi Hu, Francesco Sammarco, Jonas Geiping, Thomas Wolfers
cs.AI

papers.abstract

Les modèles universels de segmentation d'images médicales sont apparus comme un paradigme prometteur grâce à leur forte généralisabilité sur des tâches variées, montrant un grand potentiel pour un large éventail d'applications cliniques. Ce potentiel a été en partie stimulé par le succès des modèles de vision à usage général tels que le Segment Anything Model (SAM), qui a inspiré le développement de diverses variantes affinées pour les tâches de segmentation médicale. Cependant, les variantes affinées comme MedSAM sont entraînées sur des données d'imagerie médicale relativement limitées, souvent confrontées à l'hétérogénéité, aux annotations rares et aux décalages de distribution. Ces défis limitent leur capacité à généraliser sur une large gamme de tâches de segmentation médicale. À cet égard, nous proposons MedSAMix, une méthode de fusion de modèles sans entraînement qui intègre les forces des modèles généralistes (par exemple, SAM) et des modèles spécialistes (par exemple, MedSAM) pour la segmentation d'images médicales. Contrairement aux approches traditionnelles de fusion de modèles qui reposent sur une configuration manuelle et aboutissent souvent à des résultats sous-optimaux, nous proposons une méthode d'optimisation d'ordre zéro pour découvrir automatiquement des solutions optimales de fusion couche par couche. De plus, pour les applications cliniques, nous développons deux régimes pour répondre aux besoins de spécificité de domaine et de généralisabilité dans différents scénarios, respectivement par optimisation mono-tâche et optimisation multi-objectifs. Des évaluations approfondies sur 25 tâches de segmentation médicale démontrent que MedSAMix atténue efficacement les biais des modèles et améliore de manière constante les performances en termes de précision spécifique au domaine et de généralisation, avec des améliorations de 6,67 % sur les tâches spécialisées et de 4,37 % sur les évaluations multi-tâches.
English
Universal medical image segmentation models have emerged as a promising paradigm due to their strong generalizability across diverse tasks, showing great potential for a wide range of clinical applications. This potential has been partly driven by the success of general-purpose vision models such as the Segment Anything Model (SAM), which has inspired the development of various fine-tuned variants for medical segmentation tasks. However, fine-tuned variants like MedSAM are trained on comparatively limited medical imaging data that often suffers from heterogeneity, scarce annotations, and distributional shifts. These challenges limit their ability to generalize across a wide range of medical segmentation tasks. In this regard, we propose MedSAMix, a training-free model merging method that integrates the strengths of both generalist models (e.g., SAM) and specialist models (e.g., MedSAM) for medical image segmentation. In contrast to traditional model merging approaches that rely on manual configuration and often result in suboptimal outcomes, we propose a zero-order optimization method to automatically discover optimal layer-wise merging solutions. Furthermore, for clinical applications, we develop two regimes to meet the demand of domain-specificity and generalizability in different scenarios by single-task optimization and multi-objective optimization respectively. Extensive evaluations on 25 medical segmentation tasks demonstrate that MedSAMix effectively mitigates model bias and consistently improves performance in both domain-specific accuracy and generalization, achieving improvements of 6.67% on specialized tasks and 4.37% on multi-task evaluations.
PDF21August 20, 2025