ChatPaper.aiChatPaper

確実で較正された真正マルチメディアコンテンツの検出

Robust and Calibrated Detection of Authentic Multimedia Content

December 17, 2025
著者: Sarim Hashmi, Abdelrahman Elsayed, Mohammed Talha Alam, Samuele Poppi, Nils Lukas
cs.AI

要旨

生成モデルは、いわゆるディープフェイクと呼ばれる高度に写実的なコンテンツを合成可能であり、既に大規模に悪用されてデジタルメディアの真正性を損なう事態を招いている。現行のディープフェイク検出手法は、以下の二つの理由から信頼性に欠ける。(i) 非真正なコンテンツを事後的に識別することは(例:記憶されたサンプルでは)往々にして不可能であり、これは無限に大きくなりうる偽陽性率(FPR)を招く。(ii) 敵対者は最小限の計算資源で既知の検出器に適応し、ほぼ完璧な精度で検出を回避できるため、検出手法の頑健性が不足している。これらの課題を解決するため、我々はサンプルが真正であるか、またはその真正性を蓋然的に否定できるかを判定する再合成フレームワークを提案する。我々は、効率的な(すなわち計算資源が制限された)敵対者を想定した高精度・低再現率の設定に焦点を当て、二つの主要な貢献を行う。第一に、較正された再合成手法が、制御可能かつ低いFPRを維持しつつ、真正サンプルを検証する最も信頼性の高いアプローチであることを実証する。第二に、従来手法が同等の計算予算の下で容易に回避されるのに対し、本手法が効率的な敵対者に対して敵对的頑健性を達成することを示す。本アプローチは複数のモダリティをサポートし、最先端の逆変換技術を活用する。
English
Generative models can synthesize highly realistic content, so-called deepfakes, that are already being misused at scale to undermine digital media authenticity. Current deepfake detection methods are unreliable for two reasons: (i) distinguishing inauthentic content post-hoc is often impossible (e.g., with memorized samples), leading to an unbounded false positive rate (FPR); and (ii) detection lacks robustness, as adversaries can adapt to known detectors with near-perfect accuracy using minimal computational resources. To address these limitations, we propose a resynthesis framework to determine if a sample is authentic or if its authenticity can be plausibly denied. We make two key contributions focusing on the high-precision, low-recall setting against efficient (i.e., compute-restricted) adversaries. First, we demonstrate that our calibrated resynthesis method is the most reliable approach for verifying authentic samples while maintaining controllable, low FPRs. Second, we show that our method achieves adversarial robustness against efficient adversaries, whereas prior methods are easily evaded under identical compute budgets. Our approach supports multiple modalities and leverages state-of-the-art inversion techniques.
PDF152December 19, 2025