ChatPaper.aiChatPaper

Hunyuan-Game: Industrietaugliches intelligentes Spielerstellungsmodell

Hunyuan-Game: Industrial-grade Intelligent Game Creation Model

May 20, 2025
Autoren: Ruihuang Li, Caijin Zhou, Shoujian Zheng, Jianxiang Lu, Jiabin Huang, Comi Chen, Junshu Tang, Guangzheng Xu, Jiale Tao, Hongmei Wang, Donghao Li, Wenqing Yu, Senbo Wang, Zhimin Li, Yetshuan Shi, Haoyu Yang, Yukun Wang, Wenxun Dai, Jiaqi Li, Linqing Wang, Qixun Wang, Zhiyong Xu, Yingfang Zhang, Jiangfeng Xiong, Weijie Kong, Chao Zhang, Hongxin Zhang, Qiaoling Zheng, Weiting Guo, Xinchi Deng, Yixuan Li, Renjia Wei, Yulin Jian, Duojun Huang, Xuhua Ren, Sihuan Lin, Yifu Sun, Yuan Zhou, Joey Wang, Qin Lin, Jingmiao Yu, Jihong Zhang, Caesar Zhong, Di Wang, Yuhong Liu, Linus, Jie Jiang, Longhuang Wu, Shuai Shao, Qinglin Lu
cs.AI

Zusammenfassung

Intelligente Spielerstellung stellt einen bahnbrechenden Fortschritt in der Spieleentwicklung dar, indem generative künstliche Intelligenz eingesetzt wird, um Spielinhalte dynamisch zu generieren und zu verbessern. Trotz bemerkenswerter Fortschritte bei generativen Modellen bleibt die umfassende Synthese hochwertiger Spielressourcen, einschließlich sowohl Bilder als auch Videos, eine herausfordernde Grenze. Um hochwertige Spielinhalte zu erstellen, die gleichzeitig den Vorlieben der Spieler entsprechen und die Effizienz der Designer erheblich steigern, präsentieren wir Hunyuan-Game, ein innovatives Projekt, das darauf abzielt, die intelligente Spielproduktion zu revolutionieren. Hunyuan-Game umfasst zwei Hauptbereiche: Bildgenerierung und Videogenerierung. Die Bildgenerierungskomponente basiert auf einem umfangreichen Datensatz, der Milliarden von Spielbildern umfasst, was zur Entwicklung einer Gruppe von maßgeschneiderten Bildgenerierungsmodellen für Spielszenarien führt: (1) Allgemeine Text-zu-Bild-Generierung. (2) Generierung von Spielvisuellen Effekten, einschließlich Text-zu-Effekt und referenzbildbasierter Generierung von Spielvisuellen Effekten. (3) Transparente Bildgenerierung für Charaktere, Szenen und Spielvisuelle Effekte. (4) Spielcharaktergenerierung basierend auf Skizzen, Schwarz-Weiß-Bildern und Weißmodellen. Die Videogenerierungskomponente basiert auf einem umfassenden Datensatz von Millionen von Spiel- und Anime-Videos, was zur Entwicklung von fünf Kernalgorithmen führt, die jeweils kritische Schmerzpunkte in der Spieleentwicklung adressieren und eine robuste Anpassung an diverse Spielvideoszenarien aufweisen: (1) Bild-zu-Video-Generierung. (2) 360 A/T-Pose-Avatar-Video-Synthese. (3) Dynamische Illustrationen-Generierung. (4) Generative Video-Superauflösung. (5) Interaktive Spielvideo-Generierung. Diese Bild- und Videogenerierungsmodelle zeigen nicht nur ein hohes Maß an ästhetischem Ausdruck, sondern integrieren auch tiefgehend domänenspezifisches Wissen und etablieren ein systematisches Verständnis verschiedener Spiel- und Anime-Kunststile.
English
Intelligent game creation represents a transformative advancement in game development, utilizing generative artificial intelligence to dynamically generate and enhance game content. Despite notable progress in generative models, the comprehensive synthesis of high-quality game assets, including both images and videos, remains a challenging frontier. To create high-fidelity game content that simultaneously aligns with player preferences and significantly boosts designer efficiency, we present Hunyuan-Game, an innovative project designed to revolutionize intelligent game production. Hunyuan-Game encompasses two primary branches: image generation and video generation. The image generation component is built upon a vast dataset comprising billions of game images, leading to the development of a group of customized image generation models tailored for game scenarios: (1) General Text-to-Image Generation. (2) Game Visual Effects Generation, involving text-to-effect and reference image-based game visual effect generation. (3) Transparent Image Generation for characters, scenes, and game visual effects. (4) Game Character Generation based on sketches, black-and-white images, and white models. The video generation component is built upon a comprehensive dataset of millions of game and anime videos, leading to the development of five core algorithmic models, each targeting critical pain points in game development and having robust adaptation to diverse game video scenarios: (1) Image-to-Video Generation. (2) 360 A/T Pose Avatar Video Synthesis. (3) Dynamic Illustration Generation. (4) Generative Video Super-Resolution. (5) Interactive Game Video Generation. These image and video generation models not only exhibit high-level aesthetic expression but also deeply integrate domain-specific knowledge, establishing a systematic understanding of diverse game and anime art styles.

Summary

AI-Generated Summary

PDF81May 21, 2025