Robuste und kalibrierte Erkennung authentischer Multimedia-Inhalte
Robust and Calibrated Detection of Authentic Multimedia Content
December 17, 2025
papers.authors: Sarim Hashmi, Abdelrahman Elsayed, Mohammed Talha Alam, Samuele Poppi, Nils Lukas
cs.AI
papers.abstract
Generative Modelle können hochrealistische Inhalte, sogenannte Deepfakes, synthetisieren, die bereits in großem Umfang missbraucht werden, um die Authentizität digitaler Medien zu untergraben. Aktuelle Methoden zur Deepfake-Erkennung sind aus zwei Gründen unzuverlässig: (i) Die nachträgliche Unterscheidung von nicht-authentischen Inhalten ist oft unmöglich (z.B. bei memorisierten Stichproben), was zu einer unbegrenzten False-Positive-Rate (FPR) führt; und (ii) der Erkennungsprozess mangelt es an Robustheit, da Gegner mit minimalen Rechenressourcen eine nahezu perfekte Anpassungsgenauigkeit an bekannte Detektoren erreichen können. Um diese Einschränkungen zu adressieren, schlagen wir ein Resynthese-Framework vor, um zu bestimmen, ob eine Stichprobe authentisch ist oder ob ihre Authentizität plausibel bestritten werden kann. Wir leisten zwei wesentliche Beiträge mit Fokus auf das Hochpräzisions-, Niedrig-Trefferquote-Setting gegenüber effizienten (d.h. rechenbeschränkten) Gegnern. Erstens demonstrieren wir, dass unsere kalibrierte Resynthesemethode der zuverlässigste Ansatz zur Verifikation authentischer Stichproben bei gleichzeitig kontrollierbarer, niedriger FPR ist. Zweitens zeigen wir, dass unsere Methode gegenüber effizienten Gegnern adversariale Robustheit erreicht, während frühere Methoden unter identischen Rechenbudgets leicht umgangen werden können. Unser Ansatz unterstützt multiple Modalitäten und nutzt modernste Inversionstechniken.
English
Generative models can synthesize highly realistic content, so-called deepfakes, that are already being misused at scale to undermine digital media authenticity. Current deepfake detection methods are unreliable for two reasons: (i) distinguishing inauthentic content post-hoc is often impossible (e.g., with memorized samples), leading to an unbounded false positive rate (FPR); and (ii) detection lacks robustness, as adversaries can adapt to known detectors with near-perfect accuracy using minimal computational resources. To address these limitations, we propose a resynthesis framework to determine if a sample is authentic or if its authenticity can be plausibly denied. We make two key contributions focusing on the high-precision, low-recall setting against efficient (i.e., compute-restricted) adversaries. First, we demonstrate that our calibrated resynthesis method is the most reliable approach for verifying authentic samples while maintaining controllable, low FPRs. Second, we show that our method achieves adversarial robustness against efficient adversaries, whereas prior methods are easily evaded under identical compute budgets. Our approach supports multiple modalities and leverages state-of-the-art inversion techniques.