ChatPaper.aiChatPaper

딥페이크 탐지를 위한 스케일링 법칙

Scaling Laws for Deepfake Detection

October 18, 2025
저자: Wenhao Wang, Longqi Cai, Taihong Xiao, Yuxiao Wang, Ming-Hsuan Yang
cs.AI

초록

본 논문은 딥페이크 탐지 과제에 대한 스케일링 법칙을 체계적으로 연구한 결과를 제시한다. 구체적으로 우리는 실제 이미지 도메인 수, 딥페이크 생성 방법 수, 훈련 이미지 수에 따른 모델 성능을 분석한다. 본 연구의 규모 요구사항을 충족하는 기존 데이터셋이 존재하지 않아, 우리는 이 분야 역대 최대 규모의 데이터셋인 ScaleDF를 구축하였다. 이 데이터셋은 51개 서로 다른 데이터셋(도메인)으로부터 추출한 580만 장 이상의 실제 이미지와 102개 딥페이크 생성 방법으로 생성된 880만 장 이상의 가짜 이미지를 포함한다. ScaleDF를 통해 우리는 대규모 언어 모델(LLM)에서 나타나는 것과 유사한 멱법칙 스케일링 현상을 관찰했다. 구체적으로, 실제 도메인 수나 딥페이크 생성 방법 수가 증가함에 따라 평균 탐지 오류가 예측 가능한 멱법칙 감소를 보였다. 이 핵심 관찰 결과는 목표 성능에 도달하기 위해 필요한 추가 실제 도메인 또는 딥페이크 생성 방법의 수를 예측할 수 있게 할 뿐만 아니라, 데이터 중심 접근법으로 진화하는 딥페이크 기술에 대응할 방안을 고무한다. 이를 넘어서, 우리는 스케일링 조건에서 딥페이크 탐지에 대한 사전 훈련과 데이터 증강의 역할, 그리고 스케일링 자체의 한계점을 검토한다.
English
This paper presents a systematic study of scaling laws for the deepfake detection task. Specifically, we analyze the model performance against the number of real image domains, deepfake generation methods, and training images. Since no existing dataset meets the scale requirements for this research, we construct ScaleDF, the largest dataset to date in this field, which contains over 5.8 million real images from 51 different datasets (domains) and more than 8.8 million fake images generated by 102 deepfake methods. Using ScaleDF, we observe power-law scaling similar to that shown in large language models (LLMs). Specifically, the average detection error follows a predictable power-law decay as either the number of real domains or the number of deepfake methods increases. This key observation not only allows us to forecast the number of additional real domains or deepfake methods required to reach a target performance, but also inspires us to counter the evolving deepfake technology in a data-centric manner. Beyond this, we examine the role of pre-training and data augmentations in deepfake detection under scaling, as well as the limitations of scaling itself.
PDF31December 31, 2025