ChatPaper.aiChatPaper

OpenUS: Um Modelo de Base Totalmente Aberto para Análise de Imagens de Ultrassom via Aprendizado Contrastivo Mascarado Auto-Adaptativo

OpenUS: A Fully Open-Source Foundation Model for Ultrasound Image Analysis via Self-Adaptive Masked Contrastive Learning

November 14, 2025
Autores: Xiaoyu Zheng, Xu Chen, Awais Rauf, Qifan Fu, Benedetta Monosi, Felice Rivellese, Myles J. Lewis, Shaogang Gong, Gregory Slabaugh
cs.AI

Resumo

O ultrassom (US) é uma das modalidades de imagem médica mais amplamente utilizadas, graças ao seu baixo custo, portabilidade, feedback em tempo real e ausência de radiação ionizante. No entanto, a interpretação de imagens de US permanece altamente dependente do operador e varia significativamente entre regiões anatômicas, protocolos de aquisição e tipos de dispositivos. Essas variações, juntamente com desafios únicos como *speckle*, baixo contraste e anotações padronizadas limitadas, dificultam o desenvolvimento de modelos de IA para ultrassom generalizáveis e eficientes em termos de anotação. Neste artigo, propomos o OpenUS, o primeiro modelo de base (*foundation model*) de ultrassom reproduzível e de código aberto, construído sobre uma grande coleção de dados públicos. O OpenUS emprega um *backbone* de visão baseado em Mamba, capturando dependências de longo alcance, tanto locais quanto globais, na imagem. Para extrair características ricas durante o pré-treinamento, introduzimos uma nova estrutura de mascaramento auto-adaptativa que combina aprendizado contrastivo com modelagem de imagem mascarada. Esta estratégia integra o mapa de atenção do professor com a perda de reconstrução do estudante, refinando adaptativamente o mascaramento clinicamente relevante para melhorar a eficácia do pré-treinamento. O OpenUS também aplica um cronograma de aprendizado dinâmico para ajustar progressivamente a dificuldade do processo de pré-treinamento. Para desenvolver o modelo de base, compilamos o maior conjunto de dados públicos de ultrassom até à data, compreendendo mais de 308 mil imagens de 42 conjuntos de dados publicamente disponíveis, abrangendo diversas regiões anatômicas, instituições, dispositivos de imagem e tipos de doenças. Nosso modelo OpenUS pré-treinado pode ser facilmente adaptado a tarefas específicas (*downstream tasks*) servindo como *backbone* para um ajuste fino (*fine-tuning*) eficiente em anotações. O código está disponível em https://github.com/XZheng0427/OpenUS.
English
Ultrasound (US) is one of the most widely used medical imaging modalities, thanks to its low cost, portability, real-time feedback, and absence of ionizing radiation. However, US image interpretation remains highly operator-dependent and varies significantly across anatomical regions, acquisition protocols, and device types. These variations, along with unique challenges such as speckle, low contrast, and limited standardized annotations, hinder the development of generalizable, label-efficient ultrasound AI models. In this paper, we propose OpenUS, the first reproducible, open-source ultrasound foundation model built on a large collection of public data. OpenUS employs a vision Mamba backbone, capturing both local and global long-range dependencies across the image. To extract rich features during pre-training, we introduce a novel self-adaptive masking framework that combines contrastive learning with masked image modeling. This strategy integrates the teacher's attention map with student reconstruction loss, adaptively refining clinically-relevant masking to enhance pre-training effectiveness. OpenUS also applies a dynamic learning schedule to progressively adjust the difficulty of the pre-training process. To develop the foundation model, we compile the largest to-date public ultrasound dataset comprising over 308K images from 42 publicly available datasets, covering diverse anatomical regions, institutions, imaging devices, and disease types. Our pre-trained OpenUS model can be easily adapted to specific downstream tasks by serving as a backbone for label-efficient fine-tuning. Code is available at https://github.com/XZheng0427/OpenUS.
PDF12February 27, 2026