Curia: Een Multi-Modaal Fundamentmodel voor Radiologie
Curia: A Multi-Modal Foundation Model for Radiology
September 8, 2025
Auteurs: Corentin Dancette, Julien Khlaut, Antoine Saporta, Helene Philippe, Elodie Ferreres, Baptiste Callard, Théo Danielou, Léo Alberge, Léo Machado, Daniel Tordjman, Julie Dupuis, Korentin Le Floch, Jean Du Terrail, Mariam Moshiri, Laurent Dercle, Tom Boeken, Jules Gregory, Maxime Ronot, François Legou, Pascal Roux, Marc Sapoval, Pierre Manceron, Paul Hérent
cs.AI
Samenvatting
AI-ondersteunde radiologische interpretatie is gebaseerd op voornamelijk smalle, enkelvoudige-taakmodellen. Deze aanpak is onpraktisch voor het bestrijken van het brede spectrum aan beeldvormingstechnieken, ziekten en radiologische bevindingen. Foundationmodellen (FM's) bieden de belofte van brede generalisatie over verschillende modaliteiten en in situaties met weinig data. Dit potentieel is echter grotendeels onbenut gebleven in de radiologie. Wij introduceren Curia, een foundationmodel getraind op de volledige output van dwarsdoorsnede-beeldvorming van een groot ziekenhuis over meerdere jaren, wat naar onze kennis de grootste dergelijke verzameling van real-world data omvat - 150.000 onderzoeken (130 TB). Op een nieuw samengestelde externe validatiebenchmark van 19 taken identificeert Curia nauwkeurig organen, detecteert aandoeningen zoals hersenbloedingen en myocardinfarcten, en voorspelt uitkomsten bij tumorgradering. Curia evenaart of overtreft de prestaties van radiologen en recente foundationmodellen, en vertoont klinisch significante emergente eigenschappen in cross-modale en low-data-regimes. Om de vooruitgang te versnellen, maken wij de gewichten van ons basismodel beschikbaar op https://huggingface.co/raidium/curia.
English
AI-assisted radiological interpretation is based on predominantly narrow,
single-task models. This approach is impractical for covering the vast spectrum
of imaging modalities, diseases, and radiological findings. Foundation models
(FMs) hold the promise of broad generalization across modalities and in
low-data settings. However, this potential has remained largely unrealized in
radiology. We introduce Curia, a foundation model trained on the entire
cross-sectional imaging output of a major hospital over several years, which to
our knowledge is the largest such corpus of real-world data-encompassing
150,000 exams (130 TB). On a newly curated 19-task external validation
benchmark, Curia accurately identifies organs, detects conditions like brain
hemorrhages and myocardial infarctions, and predicts outcomes in tumor staging.
Curia meets or surpasses the performance of radiologists and recent foundation
models, and exhibits clinically significant emergent properties in
cross-modality, and low-data regimes. To accelerate progress, we release our
base model's weights at https://huggingface.co/raidium/curia.