ChatPaper.aiChatPaper

Onzekerheidsbewuste Voorspelling van Resterende Levensduur op Basis van Beelden

Uncertainty-Aware Remaining Lifespan Prediction from Images

June 16, 2025
Auteurs: Tristan Kenneweg, Philip Kenneweg, Barbara Hammer
cs.AI

Samenvatting

Het voorspellen van sterftegerelateerde uitkomsten uit afbeeldingen biedt het vooruitzicht van toegankelijke, niet-invasieve en schaalbare gezondheidsscreening. We presenteren een methode die gebruikmaakt van vooraf getrainde vision transformer foundation modellen om de resterende levensduur te schatten op basis van gezichts- en volledige lichaamsafbeeldingen, samen met robuuste onzekerheidskwantificering. We laten zien dat de voorspellende onzekerheid systematisch varieert met de werkelijke resterende levensduur, en dat deze onzekerheid effectief kan worden gemodelleerd door een Gaussische verdeling voor elk monster te leren. Onze aanpak behaalt een state-of-the-art gemiddelde absolute fout (MAE) van 7,48 jaar op een gevestigde dataset, en verbetert verder tot 4,79 en 5,07 jaar MAE op twee nieuwe, hogere kwaliteit datasets die in dit werk zijn samengesteld en gepubliceerd. Belangrijk is dat onze modellen goed gekalibreerde onzekerheidsschattingen bieden, zoals aangetoond door een gebucketiseerde verwachte kalibratiefout van 0,62 jaar. Hoewel niet bedoeld voor klinische inzet, benadrukken deze resultaten het potentieel van het extraheren van medisch relevante signalen uit afbeeldingen. We maken alle code en datasets beschikbaar om verder onderzoek te faciliteren.
English
Predicting mortality-related outcomes from images offers the prospect of accessible, noninvasive, and scalable health screening. We present a method that leverages pretrained vision transformer foundation models to estimate remaining lifespan from facial and whole-body images, alongside robust uncertainty quantification. We show that predictive uncertainty varies systematically with the true remaining lifespan, and that this uncertainty can be effectively modeled by learning a Gaussian distribution for each sample. Our approach achieves state-of-the-art mean absolute error (MAE) of 7.48 years on an established Dataset, and further improves to 4.79 and 5.07 years MAE on two new, higher-quality datasets curated and published in this work. Importantly, our models provide well-calibrated uncertainty estimates, as demonstrated by a bucketed expected calibration error of 0.62 years. While not intended for clinical deployment, these results highlight the potential of extracting medically relevant signals from images. We make all code and datasets available to facilitate further research.
PDF12June 17, 2025