ChatPaper.aiChatPaper

Skalierungsgesetze für Deepfake-Erkennung

Scaling Laws for Deepfake Detection

October 18, 2025
papers.authors: Wenhao Wang, Longqi Cai, Taihong Xiao, Yuxiao Wang, Ming-Hsuan Yang
cs.AI

papers.abstract

Diese Arbeit präsentiert eine systematische Untersuchung von Skalierungsgesetzen für die Deepfake-Erkennung. Konkret analysieren wir die Modellleistung in Abhängigkeit von der Anzahl realer Bilddomänen, Deepfake-Erzeugungsmethoden und Trainingsbildern. Da kein bestehender Datensatz die Anforderungen an den Umfang für diese Forschung erfüllt, erstellen wir ScaleDF, den bislang größten Datensatz in diesem Bereich, der über 5,8 Millionen reale Bilder aus 51 verschiedenen Datensätzen (Domänen) und mehr als 8,8 Millionen durch 102 Deepfake-Methoden generierte Fälschungsbilder enthält. Mithilfe von ScaleDF beobachten wir eine Skalierung nach Potenzgesetzen, ähnlich der bei großen Sprachmodellen (LLMs) gezeigten. Insbesondere folgt der durchschnittliche Detektionsfehler einem vorhersagbaren, potenzgesetzlichen Abfall, sobald entweder die Anzahl realer Domänen oder die Anzahl der Deepfake-Methoden zunimmt. Diese zentrale Beobachtung ermöglicht es uns nicht nur abzuschätzen, wie viele zusätzliche reale Domänen oder Deepfake-Methoden erforderlich sind, um eine Zielleistung zu erreichen, sondern inspiriert uns auch, der sich weiterentwickelnden Deepfake-Technologie auf datenzentrierte Weise zu begegnen. Darüber hinaus untersuchen wir die Rolle von Pre-Training und Datenanreicherung bei der Deepfake-Erkennung unter Skalierung sowie die Grenzen der Skalierung selbst.
English
This paper presents a systematic study of scaling laws for the deepfake detection task. Specifically, we analyze the model performance against the number of real image domains, deepfake generation methods, and training images. Since no existing dataset meets the scale requirements for this research, we construct ScaleDF, the largest dataset to date in this field, which contains over 5.8 million real images from 51 different datasets (domains) and more than 8.8 million fake images generated by 102 deepfake methods. Using ScaleDF, we observe power-law scaling similar to that shown in large language models (LLMs). Specifically, the average detection error follows a predictable power-law decay as either the number of real domains or the number of deepfake methods increases. This key observation not only allows us to forecast the number of additional real domains or deepfake methods required to reach a target performance, but also inspires us to counter the evolving deepfake technology in a data-centric manner. Beyond this, we examine the role of pre-training and data augmentations in deepfake detection under scaling, as well as the limitations of scaling itself.
PDF31December 31, 2025