ChatPaper.aiChatPaper

Rilevamento Robusto e Calibrato di Contenuti Multimediali Autentici

Robust and Calibrated Detection of Authentic Multimedia Content

December 17, 2025
Autori: Sarim Hashmi, Abdelrahman Elsayed, Mohammed Talha Alam, Samuele Poppi, Nils Lukas
cs.AI

Abstract

I modelli generativi possono sintetizzare contenuti altamente realistici, i cosiddetti deepfake, che vengono già utilizzati su larga scala per minare l'autenticità dei media digitali. I metodi attuali di rilevamento dei deepfake sono inaffidabili per due ragioni: (i) distinguere i contenuti non autentici a posteriori è spesso impossibile (ad esempio, con campioni memorizzati), portando a un tasso di falsi positivi (FPR) illimitato; e (ii) il rilevamento manca di robustezza, poiché gli avversari possono adattarsi ai rilevatori noti con un'accuratezza quasi perfetta utilizzando risorse computazionali minime. Per affrontare queste limitazioni, proponiamo un framework di risintesi per determinare se un campione è autentico o se la sua autenticità può essere plausibilmente negata. Forniamo due contributi chiave concentrandoci sull'impostazione ad alta precisione e basso richiamo contro avversari efficienti (cioè con risorse computazionali limitate). In primo luogo, dimostriamo che il nostro metodo di risintesi calibrato è l'approccio più affidabile per verificare i campioni autentici mantenendo FPR bassi e controllabili. In secondo luogo, mostriamo che il nostro metodo raggiunge una robustezza adversarial contro avversari efficienti, mentre i metodi precedenti sono facilmente elusi con budget computazionali identici. Il nostro approccio supporta multiple modalità e sfrutta tecniche di inversione all'avanguardia.
English
Generative models can synthesize highly realistic content, so-called deepfakes, that are already being misused at scale to undermine digital media authenticity. Current deepfake detection methods are unreliable for two reasons: (i) distinguishing inauthentic content post-hoc is often impossible (e.g., with memorized samples), leading to an unbounded false positive rate (FPR); and (ii) detection lacks robustness, as adversaries can adapt to known detectors with near-perfect accuracy using minimal computational resources. To address these limitations, we propose a resynthesis framework to determine if a sample is authentic or if its authenticity can be plausibly denied. We make two key contributions focusing on the high-precision, low-recall setting against efficient (i.e., compute-restricted) adversaries. First, we demonstrate that our calibrated resynthesis method is the most reliable approach for verifying authentic samples while maintaining controllable, low FPRs. Second, we show that our method achieves adversarial robustness against efficient adversaries, whereas prior methods are easily evaded under identical compute budgets. Our approach supports multiple modalities and leverages state-of-the-art inversion techniques.
PDF152December 19, 2025