ChatPaper.aiChatPaper

OpenUS: Un Modelo Base Completamente de Código Abierto para el Análisis de Imágenes de Ultrasonido mediante Aprendizaje Contrastivo Autoadaptativo con Enmascaramiento

OpenUS: A Fully Open-Source Foundation Model for Ultrasound Image Analysis via Self-Adaptive Masked Contrastive Learning

November 14, 2025
Autores: Xiaoyu Zheng, Xu Chen, Awais Rauf, Qifan Fu, Benedetta Monosi, Felice Rivellese, Myles J. Lewis, Shaogang Gong, Gregory Slabaugh
cs.AI

Resumen

La ecografía (US) es una de las modalidades de imagen médica más utilizadas, gracias a su bajo coste, portabilidad, retroalimentación en tiempo real y ausencia de radiación ionizante. Sin embargo, la interpretación de imágenes ecográficas sigue siendo altamente dependiente del operador y varía significativamente entre regiones anatómicas, protocolos de adquisición y tipos de dispositivos. Estas variaciones, junto con desafíos únicos como el speckle, el bajo contraste y las anotaciones estandarizadas limitadas, dificultan el desarrollo de modelos de IA ecográfica generalizables y eficientes en etiquetas. En este artículo, proponemos OpenUS, el primer modelo base ecográfico reproducible y de código abierto construido sobre una amplia colección de datos públicos. OpenUS emplea una arquitectura vision Mamba, capturando dependencias tanto locales como globales de largo alcance en la imagen. Para extraer características ricas durante el pre-entrenamiento, introducimos un novedoso marco de enmascaramiento auto-adaptativo que combina el aprendizaje contrastivo con el modelado de imágenes enmascaradas. Esta estrategia integra el mapa de atención del profesor con la pérdida de reconstrucción del estudiante, refinando adaptativamente el enmascaramiento clínicamente relevante para mejorar la efectividad del pre-entrenamiento. OpenUS también aplica un programa de aprendizaje dinámico para ajustar progresivamente la dificultad del proceso de pre-entrenamiento. Para desarrollar el modelo base, compilamos el mayor conjunto de datos ecográficos públicos hasta la fecha, que comprende más de 308.000 imágenes de 42 conjuntos de datos disponibles públicamente, cubriendo diversas regiones anatómicas, instituciones, dispositivos de imagen y tipos de enfermedades. Nuestro modelo OpenUS pre-entrenado puede adaptarse fácilmente a tareas específicas de downstream sirviendo como columna vertebral para un ajuste fino eficiente en etiquetas. El código está disponible en https://github.com/XZheng0427/OpenUS.
English
Ultrasound (US) is one of the most widely used medical imaging modalities, thanks to its low cost, portability, real-time feedback, and absence of ionizing radiation. However, US image interpretation remains highly operator-dependent and varies significantly across anatomical regions, acquisition protocols, and device types. These variations, along with unique challenges such as speckle, low contrast, and limited standardized annotations, hinder the development of generalizable, label-efficient ultrasound AI models. In this paper, we propose OpenUS, the first reproducible, open-source ultrasound foundation model built on a large collection of public data. OpenUS employs a vision Mamba backbone, capturing both local and global long-range dependencies across the image. To extract rich features during pre-training, we introduce a novel self-adaptive masking framework that combines contrastive learning with masked image modeling. This strategy integrates the teacher's attention map with student reconstruction loss, adaptively refining clinically-relevant masking to enhance pre-training effectiveness. OpenUS also applies a dynamic learning schedule to progressively adjust the difficulty of the pre-training process. To develop the foundation model, we compile the largest to-date public ultrasound dataset comprising over 308K images from 42 publicly available datasets, covering diverse anatomical regions, institutions, imaging devices, and disease types. Our pre-trained OpenUS model can be easily adapted to specific downstream tasks by serving as a backbone for label-efficient fine-tuning. Code is available at https://github.com/XZheng0427/OpenUS.
PDF02December 1, 2025