OpenUS: Un Modello Base Completamente Open-Source per l'Analisi di Immagini Ecografiche mediante Apprendimento Contrastivo Mascherato Auto-Adattivo
OpenUS: A Fully Open-Source Foundation Model for Ultrasound Image Analysis via Self-Adaptive Masked Contrastive Learning
November 14, 2025
Autori: Xiaoyu Zheng, Xu Chen, Awais Rauf, Qifan Fu, Benedetta Monosi, Felice Rivellese, Myles J. Lewis, Shaogang Gong, Gregory Slabaugh
cs.AI
Abstract
L'ecografia (US) è una delle modalità di imaging medico più diffuse, grazie al suo basso costo, portabilità, feedback in tempo reale e assenza di radiazioni ionizzanti. Tuttavia, l'interpretazione delle immagini ecografiche rimane fortemente dipendente dall'operatore e varia significativamente in base alle regioni anatomiche, ai protocolli di acquisizione e ai tipi di dispositivo. Queste variazioni, insieme a sfide uniche come il rumore di speckle, il basso contrasto e le limitate annotazioni standardizzate, ostacolano lo sviluppo di modelli di IA per ecografia generalizzabili ed efficienti dal punto di vista delle etichette. In questo articolo, proponiamo OpenUS, il primo modello foundation open-source e riproducibile per ecografia, costruito su un'ampia raccolta di dati pubblici. OpenUS utilizza una backbone vision Mamba, in grado di catturare sia le dipendenze locali che quelle globali a lungo raggio nell'immagine. Per estrarre feature ricche durante il pre-training, introduciamo un innovativo framework di masking auto-adattativo che combina l'apprendimento contrastivo con la modellazione di immagini mascherate. Questa strategia integra la mappa di attenzione del teacher con la loss di ricostruzione dello studente, affinando in modo adattivo il masking clinicamente rilevante per migliorare l'efficacia del pre-training. OpenUS applica inoltre una pianificazione dell'apprendimento dinamica per regolare progressivamente la difficoltà del processo di pre-training. Per sviluppare il modello foundation, abbiamo compilato il più grande dataset pubblico di ecografie fino ad oggi, comprendente oltre 308.000 immagini provenienti da 42 dataset pubblicamente disponibili, che coprono diverse regioni anatomiche, istituzioni, dispositivi di imaging e tipologie di patologie. Il nostro modello OpenUS pre-addestrato può essere facilmente adattato a specifici task downstream fungendo da backbone per un fine-tuning efficiente in termini di etichette. Il codice è disponibile all'indirizzo https://github.com/XZheng0427/OpenUS.
English
Ultrasound (US) is one of the most widely used medical imaging modalities, thanks to its low cost, portability, real-time feedback, and absence of ionizing radiation. However, US image interpretation remains highly operator-dependent and varies significantly across anatomical regions, acquisition protocols, and device types. These variations, along with unique challenges such as speckle, low contrast, and limited standardized annotations, hinder the development of generalizable, label-efficient ultrasound AI models. In this paper, we propose OpenUS, the first reproducible, open-source ultrasound foundation model built on a large collection of public data. OpenUS employs a vision Mamba backbone, capturing both local and global long-range dependencies across the image. To extract rich features during pre-training, we introduce a novel self-adaptive masking framework that combines contrastive learning with masked image modeling. This strategy integrates the teacher's attention map with student reconstruction loss, adaptively refining clinically-relevant masking to enhance pre-training effectiveness. OpenUS also applies a dynamic learning schedule to progressively adjust the difficulty of the pre-training process. To develop the foundation model, we compile the largest to-date public ultrasound dataset comprising over 308K images from 42 publicly available datasets, covering diverse anatomical regions, institutions, imaging devices, and disease types. Our pre-trained OpenUS model can be easily adapted to specific downstream tasks by serving as a backbone for label-efficient fine-tuning. Code is available at https://github.com/XZheng0427/OpenUS.