Unsicherheitsbewusste Vorhersage der verbleibenden Lebensdauer aus Bildern
Uncertainty-Aware Remaining Lifespan Prediction from Images
June 16, 2025
Autoren: Tristan Kenneweg, Philip Kenneweg, Barbara Hammer
cs.AI
Zusammenfassung
Die Vorhersage von Mortalitäts-bezogenen Ergebnissen aus Bildern bietet die Aussicht auf zugängliche, nicht-invasive und skalierbare Gesundheitsvorsorge. Wir präsentieren eine Methode, die vortrainierte Vision-Transformer-Foundation-Modelle nutzt, um die verbleibende Lebensdauer aus Gesichts- und Ganzkörperbildern abzuschätzen, zusammen mit einer robusten Unsicherheitsquantifizierung. Wir zeigen, dass die Vorhersageunsicherheit systematisch mit der tatsächlichen verbleibenden Lebensdauer variiert und dass diese Unsicherheit effektiv modelliert werden kann, indem für jede Probe eine Gaußverteilung gelernt wird. Unser Ansatz erreicht einen state-of-the-art mittleren absoluten Fehler (MAE) von 7,48 Jahren auf einem etablierten Datensatz und verbessert sich weiter auf 4,79 und 5,07 Jahre MAE auf zwei neuen, qualitativ hochwertigeren Datensätzen, die in dieser Arbeit kuratiert und veröffentlicht wurden. Wichtig ist, dass unsere Modelle gut kalibrierte Unsicherheitsschätzungen liefern, wie durch einen segmentierten erwarteten Kalibrierungsfehler von 0,62 Jahren demonstriert wird. Obwohl nicht für den klinischen Einsatz gedacht, unterstreichen diese Ergebnisse das Potenzial, medizinisch relevante Signale aus Bildern zu extrahieren. Wir stellen allen Code und Datensätze zur Verfügung, um weitere Forschungen zu erleichtern.
English
Predicting mortality-related outcomes from images offers the prospect of
accessible, noninvasive, and scalable health screening. We present a method
that leverages pretrained vision transformer foundation models to estimate
remaining lifespan from facial and whole-body images, alongside robust
uncertainty quantification. We show that predictive uncertainty varies
systematically with the true remaining lifespan, and that this uncertainty can
be effectively modeled by learning a Gaussian distribution for each sample. Our
approach achieves state-of-the-art mean absolute error (MAE) of 7.48 years on
an established Dataset, and further improves to 4.79 and 5.07 years MAE on two
new, higher-quality datasets curated and published in this work. Importantly,
our models provide well-calibrated uncertainty estimates, as demonstrated by a
bucketed expected calibration error of 0.62 years. While not intended for
clinical deployment, these results highlight the potential of extracting
medically relevant signals from images. We make all code and datasets available
to facilitate further research.