ChronoMagic-Bench: Een Benchmark voor Metamorfe Evaluatie van Tekst-naar-Time-lapse-Videogeneratie
ChronoMagic-Bench: A Benchmark for Metamorphic Evaluation of Text-to-Time-lapse Video Generation
June 26, 2024
Auteurs: Shenghai Yuan, Jinfa Huang, Yongqi Xu, Yaoyang Liu, Shaofeng Zhang, Yujun Shi, Ruijie Zhu, Xinhua Cheng, Jiebo Luo, Li Yuan
cs.AI
Samenvatting
Wij stellen een nieuwe benchmark voor tekst-naar-video (T2V) generatie voor, ChronoMagic-Bench, om de temporele en metamorfe capaciteiten van T2V-modellen (bijv. Sora en Lumiere) te evalueren in het genereren van time-lapse video's. In tegenstelling tot bestaande benchmarks die zich richten op de visuele kwaliteit en tekstuele relevantie van gegenereerde video's, richt ChronoMagic-Bench zich op het vermogen van het model om time-lapse video's te genereren met een significante metamorfe amplitude en temporele samenhang. De benchmark test T2V-modellen op hun fysica-, biologie- en scheikundecapaciteiten, via een vrije-tekstquery. Hiervoor introduceert ChronoMagic-Bench 1.649 prompts en real-world video's als referentie, ingedeeld in vier hoofdtypen time-lapse video's: biologisch, door mensen gemaakt, meteorologisch en fysische fenomenen, die verder zijn onderverdeeld in 75 subcategorieën. Deze categorisatie evalueert uitgebreid het vermogen van het model om diverse en complexe transformaties te hanteren. Om menselijke voorkeur nauwkeurig af te stemmen op de benchmark, introduceren we twee nieuwe automatische metrieken, MTScore en CHScore, om de metamorfe attributen en temporele samenhang van de video's te evalueren. MTScore meet de metamorfe amplitude, wat de mate van verandering over tijd weerspiegelt, terwijl CHScore de temporele samenhang beoordeelt, om ervoor te zorgen dat de gegenereerde video's een logische voortgang en continuïteit behouden. Op basis van de ChronoMagic-Bench voeren we uitgebreide handmatige evaluaties uit van tien representatieve T2V-modellen, waarbij hun sterke en zwakke punten worden onthuld over verschillende categorieën van prompts, en bieden we een grondig evaluatiekader dat de huidige lacunes in video-generatieonderzoek aanpakt. Bovendien creëren we een grootschalige ChronoMagic-Pro dataset, bestaande uit 460k hoogwaardige paren van 720p time-lapse video's en gedetailleerde bijschriften die zorgen voor een hoge fysieke relevantie en grote metamorfe amplitude.
English
We propose a novel text-to-video (T2V) generation benchmark,
ChronoMagic-Bench, to evaluate the temporal and metamorphic capabilities of the
T2V models (e.g. Sora and Lumiere) in time-lapse video generation. In contrast
to existing benchmarks that focus on the visual quality and textual relevance
of generated videos, ChronoMagic-Bench focuses on the model's ability to
generate time-lapse videos with significant metamorphic amplitude and temporal
coherence. The benchmark probes T2V models for their physics, biology, and
chemistry capabilities, in a free-form text query. For these purposes,
ChronoMagic-Bench introduces 1,649 prompts and real-world videos as references,
categorized into four major types of time-lapse videos: biological,
human-created, meteorological, and physical phenomena, which are further
divided into 75 subcategories. This categorization comprehensively evaluates
the model's capacity to handle diverse and complex transformations. To
accurately align human preference with the benchmark, we introduce two new
automatic metrics, MTScore and CHScore, to evaluate the videos' metamorphic
attributes and temporal coherence. MTScore measures the metamorphic amplitude,
reflecting the degree of change over time, while CHScore assesses the temporal
coherence, ensuring the generated videos maintain logical progression and
continuity. Based on the ChronoMagic-Bench, we conduct comprehensive manual
evaluations of ten representative T2V models, revealing their strengths and
weaknesses across different categories of prompts, and providing a thorough
evaluation framework that addresses current gaps in video generation research.
Moreover, we create a large-scale ChronoMagic-Pro dataset, containing 460k
high-quality pairs of 720p time-lapse videos and detailed captions ensuring
high physical pertinence and large metamorphic amplitude.