ChatPaper.aiChatPaper

Schaalwetten voor Deepfake-detectie

Scaling Laws for Deepfake Detection

October 18, 2025
Auteurs: Wenhao Wang, Longqi Cai, Taihong Xiao, Yuxiao Wang, Ming-Hsuan Yang
cs.AI

Samenvatting

Dit artikel presenteert een systematische studie naar schaalwetten voor de taak van deepfake-detectie. Concreet analyseren we de modelprestatie in relatie tot het aantal domeinen met echte afbeeldingen, deepfake-generatiemethoden en trainingsafbeeldingen. Aangezien geen enkele bestaande dataset voldoet aan de schaaleisen voor dit onderzoek, construeren we ScaleDF, de grootste dataset tot op heden op dit gebied, die meer dan 5,8 miljoen echte afbeeldingen uit 51 verschillende datasets (domeinen) en meer dan 8,8 miljoen nepafbeeldingen bevat, gegenereerd door 102 deepfake-methoden. Met behulp van ScaleDF observeren we een machtswet-schaling die vergelijkbaar is met die in grote taalmodellen (LLM's). Specifiek volgt de gemiddelde detectiefout een voorspelbaar machtswet-verval naarmate het aantal echte domeinen of het aantal deepfake-methoden toeneemt. Deze cruciale observatie stelt ons niet alleen in staat te voorspellen hoeveel extra echte domeinen of deepfake-methoden nodig zijn om een streefprestatie te bereiken, maar inspireert ons ook om de evoluerende deepfake-technologie op een data-gecentreerde manier te counteren. Daarnaast onderzoeken we de rol van vooraf trainen en data-augmentatie bij deepfake-detectie onder schaling, evenals de beperkingen van schaling zelf.
English
This paper presents a systematic study of scaling laws for the deepfake detection task. Specifically, we analyze the model performance against the number of real image domains, deepfake generation methods, and training images. Since no existing dataset meets the scale requirements for this research, we construct ScaleDF, the largest dataset to date in this field, which contains over 5.8 million real images from 51 different datasets (domains) and more than 8.8 million fake images generated by 102 deepfake methods. Using ScaleDF, we observe power-law scaling similar to that shown in large language models (LLMs). Specifically, the average detection error follows a predictable power-law decay as either the number of real domains or the number of deepfake methods increases. This key observation not only allows us to forecast the number of additional real domains or deepfake methods required to reach a target performance, but also inspires us to counter the evolving deepfake technology in a data-centric manner. Beyond this, we examine the role of pre-training and data augmentations in deepfake detection under scaling, as well as the limitations of scaling itself.
PDF31December 31, 2025