ChatPaper.aiChatPaper

OpenUS : un modèle de fondation entièrement open source pour l'analyse d'images ultrasonores via un apprentissage par contraste masqué auto-adaptatif

OpenUS: A Fully Open-Source Foundation Model for Ultrasound Image Analysis via Self-Adaptive Masked Contrastive Learning

November 14, 2025
papers.authors: Xiaoyu Zheng, Xu Chen, Awais Rauf, Qifan Fu, Benedetta Monosi, Felice Rivellese, Myles J. Lewis, Shaogang Gong, Gregory Slabaugh
cs.AI

papers.abstract

L'échographie (US) est l'une des modalités d'imagerie médicale les plus utilisées, grâce à son faible coût, sa portabilité, ses retours en temps réel et l'absence de rayonnements ionisants. Cependant, l'interprétation des images échographiques reste très dépendante de l'opérateur et varie considérablement selon les régions anatomiques, les protocoles d'acquisition et les types d'appareils. Ces variations, ainsi que des défis spécifiques tels que le speckle, le faible contraste et le nombre limité d'annotations standardisées, entravent le développement de modèles d'IA échographique généralisables et efficaces en termes d'annotations. Dans cet article, nous proposons OpenUS, le premier modèle de fond (foundation model) échographique reproductible et open-source construit à partir d'une vaste collection de données publiques. OpenUS utilise une architecture de type Mamba visuelle, capturant à la fois les dépendances locales et les dépendances globales à longue portée dans l'image. Pour extraire des caractéristiques riches lors du pré-entraînement, nous introduisons un nouveau cadre de masquage auto-adaptatif qui combine l'apprentissage par contraste et la modélisation d'images masquées. Cette stratégie intègre la carte d'attention de l'enseignant (teacher) avec la perte de reconstruction de l'élève (student), affinant de manière adaptative le masquage des régions cliniquement pertinentes pour améliorer l'efficacité du pré-entraînement. OpenUS applique également un calendrier d'apprentissage dynamique pour ajuster progressivement la difficulté du processus de pré-entraînement. Pour développer le modèle de fond, nous avons compilé le plus grand jeu de données échographiques publiques à ce jour, comprenant plus de 308 000 images provenant de 42 ensembles de données publics, couvrant diverses régions anatomiques, institutions, dispositifs d'imagerie et types de pathologies. Notre modèle OpenUS pré-entraîné peut être facilement adapté à des tâches en aval spécifiques en servant de squelette pour un réglage fin efficace en annotations. Le code est disponible à l'adresse https://github.com/XZheng0427/OpenUS.
English
Ultrasound (US) is one of the most widely used medical imaging modalities, thanks to its low cost, portability, real-time feedback, and absence of ionizing radiation. However, US image interpretation remains highly operator-dependent and varies significantly across anatomical regions, acquisition protocols, and device types. These variations, along with unique challenges such as speckle, low contrast, and limited standardized annotations, hinder the development of generalizable, label-efficient ultrasound AI models. In this paper, we propose OpenUS, the first reproducible, open-source ultrasound foundation model built on a large collection of public data. OpenUS employs a vision Mamba backbone, capturing both local and global long-range dependencies across the image. To extract rich features during pre-training, we introduce a novel self-adaptive masking framework that combines contrastive learning with masked image modeling. This strategy integrates the teacher's attention map with student reconstruction loss, adaptively refining clinically-relevant masking to enhance pre-training effectiveness. OpenUS also applies a dynamic learning schedule to progressively adjust the difficulty of the pre-training process. To develop the foundation model, we compile the largest to-date public ultrasound dataset comprising over 308K images from 42 publicly available datasets, covering diverse anatomical regions, institutions, imaging devices, and disease types. Our pre-trained OpenUS model can be easily adapted to specific downstream tasks by serving as a backbone for label-efficient fine-tuning. Code is available at https://github.com/XZheng0427/OpenUS.
PDF02December 1, 2025