ChatPaper.aiChatPaper

OpenUS: Een volledig open-source basis model voor echografie beeldanalyse via zelf-adaptieve gemaskeerde contrastieve learning

OpenUS: A Fully Open-Source Foundation Model for Ultrasound Image Analysis via Self-Adaptive Masked Contrastive Learning

November 14, 2025
Auteurs: Xiaoyu Zheng, Xu Chen, Awais Rauf, Qifan Fu, Benedetta Monosi, Felice Rivellese, Myles J. Lewis, Shaogang Gong, Gregory Slabaugh
cs.AI

Samenvatting

Echografie (US) is een van de meest gebruikte medische beeldvormingstechnieken, dankzij de lage kosten, draagbaarheid, real-time feedback en afwezigheid van ioniserende straling. De interpretatie van echo-beelden blijft echter sterk operatorafhankelijk en varieert aanzienlijk tussen anatomische regio's, acquisitieprotocollen en apparaattypen. Deze variaties, samen met unieke uitdagingen zoals speckle, laag contrast en beperkte gestandaardiseerde annotaties, belemmeren de ontwikkeling van generaliseerbare, label-efficiënte AI-modellen voor echografie. In dit artikel stellen we OpenUS voor, het eerste reproduceerbare, open-source foundation model voor echografie, gebaseerd op een grote verzameling publieke data. OpenUS gebruikt een Vision Mamba-backbone die zowel lokale als globale lange-afstandsafhankelijkheden in het beeld vastlegt. Om rijke kenmerken te extraheren tijdens de pre-training, introduceren we een nieuw zelfadaptief maskeringsraamwerk dat contrastief leren combineert met gemaskeerde beeldmodellering. Deze strategie integreert de aandachtskaart van de leraar met het reconstructieverlies van de student, en verfijnt klinisch relevante maskering adaptief om de effectiviteit van de pre-training te verbeteren. OpenUS past ook een dynamisch leerschema toe om de moeilijkheidsgraad van het pre-trainingproces progressief aan te passen. Om het foundation model te ontwikkelen, hebben we de grootste tot nu toe publieke echografie-dataset samengesteld, bestaande uit meer dan 308K afbeeldingen van 42 publiek beschikbare datasets, die diverse anatomische regio's, instellingen, beeldvormingsapparaten en ziektetypen bestrijken. Ons vooraf getrainde OpenUS-model kan eenvoudig worden aangepast voor specifieke downstreamtaken door te dienen als backbone voor label-efficiënte fine-tuning. Code is beschikbaar op https://github.com/XZheng0427/OpenUS.
English
Ultrasound (US) is one of the most widely used medical imaging modalities, thanks to its low cost, portability, real-time feedback, and absence of ionizing radiation. However, US image interpretation remains highly operator-dependent and varies significantly across anatomical regions, acquisition protocols, and device types. These variations, along with unique challenges such as speckle, low contrast, and limited standardized annotations, hinder the development of generalizable, label-efficient ultrasound AI models. In this paper, we propose OpenUS, the first reproducible, open-source ultrasound foundation model built on a large collection of public data. OpenUS employs a vision Mamba backbone, capturing both local and global long-range dependencies across the image. To extract rich features during pre-training, we introduce a novel self-adaptive masking framework that combines contrastive learning with masked image modeling. This strategy integrates the teacher's attention map with student reconstruction loss, adaptively refining clinically-relevant masking to enhance pre-training effectiveness. OpenUS also applies a dynamic learning schedule to progressively adjust the difficulty of the pre-training process. To develop the foundation model, we compile the largest to-date public ultrasound dataset comprising over 308K images from 42 publicly available datasets, covering diverse anatomical regions, institutions, imaging devices, and disease types. Our pre-trained OpenUS model can be easily adapted to specific downstream tasks by serving as a backbone for label-efficient fine-tuning. Code is available at https://github.com/XZheng0427/OpenUS.
PDF02December 1, 2025