Leggi di Scalabilità per il Rilevamento di Deepfake
Scaling Laws for Deepfake Detection
October 18, 2025
Autori: Wenhao Wang, Longqi Cai, Taihong Xiao, Yuxiao Wang, Ming-Hsuan Yang
cs.AI
Abstract
Questo articolo presenta uno studio sistematico delle leggi di scala per il compito di rilevamento dei deepfake. Nello specifico, analizziamo le prestazioni del modello in relazione al numero di domini di immagini reali, ai metodi di generazione di deepfake e alle immagini di addestramento. Poiché nessun dataset esistente soddisfa i requisiti di scala per questa ricerca, abbiamo costruito ScaleDF, il più grande dataset ad oggi in questo campo, che contiene oltre 5,8 milioni di immagini reali provenienti da 51 dataset diversi (domini) e più di 8,8 milioni di immagini false generate da 102 metodi di deepfake. Utilizzando ScaleDF, osserviamo una scalabilità di legge di potenza simile a quella mostrata dai grandi modelli linguistici (LLM). In particolare, l'errore medio di rilevamento segue un decadimento prevedibile secondo una legge di potenza all'aumentare del numero di domini reali o del numero di metodi di deepfake. Questa osservazione chiave non solo ci permette di prevedere il numero di domini reali o metodi di deepfake aggiuntivi necessari per raggiungere una prestazione target, ma ci ispira anche a contrastare l'evoluzione della tecnologia deepfake in modo data-centrico. Oltre a ciò, esaminiamo il ruolo del pre-addestramento e dell'aumento dei dati nel rilevamento dei deepfake in condizioni di scalabilità, nonché i limiti della scalabilità stessa.
English
This paper presents a systematic study of scaling laws for the deepfake
detection task. Specifically, we analyze the model performance against the
number of real image domains, deepfake generation methods, and training images.
Since no existing dataset meets the scale requirements for this research, we
construct ScaleDF, the largest dataset to date in this field, which contains
over 5.8 million real images from 51 different datasets (domains) and more than
8.8 million fake images generated by 102 deepfake methods. Using ScaleDF, we
observe power-law scaling similar to that shown in large language models
(LLMs). Specifically, the average detection error follows a predictable
power-law decay as either the number of real domains or the number of deepfake
methods increases. This key observation not only allows us to forecast the
number of additional real domains or deepfake methods required to reach a
target performance, but also inspires us to counter the evolving deepfake
technology in a data-centric manner. Beyond this, we examine the role of
pre-training and data augmentations in deepfake detection under scaling, as
well as the limitations of scaling itself.