Détection robuste et calibrée de contenu multimédia authentique
Robust and Calibrated Detection of Authentic Multimedia Content
December 17, 2025
papers.authors: Sarim Hashmi, Abdelrahman Elsayed, Mohammed Talha Alam, Samuele Poppi, Nils Lukas
cs.AI
papers.abstract
Les modèles génératifs peuvent synthétiser des contenus très réalistes, appelés deepfakes, qui sont déjà utilisés abusivement à grande échelle pour compromettre l'authenticité des médias numériques. Les méthodes actuelles de détection des deepfakes sont peu fiables pour deux raisons : (i) distinguer a posteriori un contenu non authentique est souvent impossible (par exemple, avec des échantillons mémorisés), ce qui conduit à un taux de faux positifs (TFP) non borné ; et (ii) la détection manque de robustesse, car des adversaires peuvent s'adapter aux détecteurs connus avec une précision quasi parfaite en utilisant des ressources computationnelles minimales. Pour résoudre ces limitations, nous proposons un cadre de resynthèse permettant de déterminer si un échantillon est authentique ou si son authenticité peut être plausiblement niée. Nous apportons deux contributions principales en nous concentrant sur un régime à haute précision et faible rappel contre des adversaires efficaces (c'est-à-dire à capacité de calcul limitée). Premièrement, nous démontrons que notre méthode de resynthèse calibrée est l'approche la plus fiable pour vérifier les échantillons authentiques tout en maintenant des TFP faibles et contrôlables. Deuxièmement, nous montrons que notre méthode atteint une robustesse adversarial contre des adversaires efficaces, alors que les méthodes antérieures sont facilement contournées sous des budgets de calcul identiques. Notre approche prend en charge plusieurs modalités et s'appuie sur des techniques d'inversion de pointe.
English
Generative models can synthesize highly realistic content, so-called deepfakes, that are already being misused at scale to undermine digital media authenticity. Current deepfake detection methods are unreliable for two reasons: (i) distinguishing inauthentic content post-hoc is often impossible (e.g., with memorized samples), leading to an unbounded false positive rate (FPR); and (ii) detection lacks robustness, as adversaries can adapt to known detectors with near-perfect accuracy using minimal computational resources. To address these limitations, we propose a resynthesis framework to determine if a sample is authentic or if its authenticity can be plausibly denied. We make two key contributions focusing on the high-precision, low-recall setting against efficient (i.e., compute-restricted) adversaries. First, we demonstrate that our calibrated resynthesis method is the most reliable approach for verifying authentic samples while maintaining controllable, low FPRs. Second, we show that our method achieves adversarial robustness against efficient adversaries, whereas prior methods are easily evaded under identical compute budgets. Our approach supports multiple modalities and leverages state-of-the-art inversion techniques.