ChatPaper.aiChatPaper

EvalCrafter: Benchmarking und Evaluierung großer Videogenerierungsmodelle

EvalCrafter: Benchmarking and Evaluating Large Video Generation Models

October 17, 2023
Autoren: Yaofang Liu, Xiaodong Cun, Xuebo Liu, Xintao Wang, Yong Zhang, Haoxin Chen, Yang Liu, Tieyong Zeng, Raymond Chan, Ying Shan
cs.AI

Zusammenfassung

Die Vision- und Sprachgenerationsmodelle haben in den letzten Jahren stark an Bedeutung gewonnen. Für die Videogenerierung wurden verschiedene Open-Source-Modelle und öffentlich verfügbare Dienste veröffentlicht, die hochwertige Videos erzeugen können. Allerdings verwenden diese Methoden oft nur wenige akademische Metriken, wie beispielsweise FVD oder IS, um die Leistung zu bewerten. Wir argumentieren, dass es schwierig ist, große bedingte Generationsmodelle anhand einfacher Metriken zu beurteilen, da diese Modelle oft auf sehr großen Datensätzen mit vielseitigen Fähigkeiten trainiert werden. Daher schlagen wir ein neues Framework und eine Pipeline vor, um die Leistung der generierten Videos umfassend zu bewerten. Um dies zu erreichen, erstellen wir zunächst eine neue Prompt-Liste für die Text-zu-Video-Generierung, indem wir eine reale Prompt-Liste mithilfe eines großen Sprachmodells analysieren. Anschließend bewerten wir die state-of-the-art Video-Generationsmodelle anhand unserer sorgfältig entworfenen Benchmarks in Bezug auf visuelle Qualität, Inhaltsqualität, Bewegungsqualität und Text-Bild-Ausrichtung mit etwa 18 objektiven Metriken. Um die endgültige Rangliste der Modelle zu erstellen, passen wir eine Reihe von Koeffizienten an, um die objektiven Metriken mit den Meinungen der Benutzer in Einklang zu bringen. Basierend auf der vorgeschlagenen Meinungsanpassungsmethode zeigt unser endgültiger Score eine höhere Korrelation als die einfache Durchschnittsbildung der Metriken, was die Wirksamkeit der vorgeschlagenen Bewertungsmethode unterstreicht.
English
The vision and language generative models have been overgrown in recent years. For video generation, various open-sourced models and public-available services are released for generating high-visual quality videos. However, these methods often use a few academic metrics, for example, FVD or IS, to evaluate the performance. We argue that it is hard to judge the large conditional generative models from the simple metrics since these models are often trained on very large datasets with multi-aspect abilities. Thus, we propose a new framework and pipeline to exhaustively evaluate the performance of the generated videos. To achieve this, we first conduct a new prompt list for text-to-video generation by analyzing the real-world prompt list with the help of the large language model. Then, we evaluate the state-of-the-art video generative models on our carefully designed benchmarks, in terms of visual qualities, content qualities, motion qualities, and text-caption alignment with around 18 objective metrics. To obtain the final leaderboard of the models, we also fit a series of coefficients to align the objective metrics to the users' opinions. Based on the proposed opinion alignment method, our final score shows a higher correlation than simply averaging the metrics, showing the effectiveness of the proposed evaluation method.
PDF171December 15, 2024