不確実性を考慮した画像からの残存寿命予測
Uncertainty-Aware Remaining Lifespan Prediction from Images
June 16, 2025
著者: Tristan Kenneweg, Philip Kenneweg, Barbara Hammer
cs.AI
要旨
画像から死亡率に関連するアウトカムを予測することは、アクセス可能で非侵襲的かつスケーラブルな健康スクリーニングの可能性を提供する。本研究では、事前学習済みのビジョントランスフォーマーファウンデーションモデルを活用し、顔および全身画像から残存寿命を推定する方法を提案する。さらに、堅牢な不確実性の定量化を併せて行う。予測の不確実性は真の残存寿命と系統的に変化し、この不確実性は各サンプルに対してガウス分布を学習することで効果的にモデル化できることを示す。本手法は、既存のデータセットにおいて7.48年の平均絶対誤差(MAE)を達成し、さらに本研究で作成・公開した2つの新しい高品質データセットにおいては4.79年および5.07年のMAEに改善された。重要な点として、本モデルは適切に較正された不確実性推定を提供し、バケット化された期待較正誤差が0.62年であることが示された。臨床展開を目的としたものではないが、これらの結果は画像から医学的に関連するシグナルを抽出する可能性を強調するものである。さらなる研究を促進するため、すべてのコードとデータセットを公開する。
English
Predicting mortality-related outcomes from images offers the prospect of
accessible, noninvasive, and scalable health screening. We present a method
that leverages pretrained vision transformer foundation models to estimate
remaining lifespan from facial and whole-body images, alongside robust
uncertainty quantification. We show that predictive uncertainty varies
systematically with the true remaining lifespan, and that this uncertainty can
be effectively modeled by learning a Gaussian distribution for each sample. Our
approach achieves state-of-the-art mean absolute error (MAE) of 7.48 years on
an established Dataset, and further improves to 4.79 and 5.07 years MAE on two
new, higher-quality datasets curated and published in this work. Importantly,
our models provide well-calibrated uncertainty estimates, as demonstrated by a
bucketed expected calibration error of 0.62 years. While not intended for
clinical deployment, these results highlight the potential of extracting
medically relevant signals from images. We make all code and datasets available
to facilitate further research.