Hunyuan-DiT: Ein leistungsstarker Multi-Resolution Diffusion Transformer mit feingranularem Verständnis des Chinesischen.
Hunyuan-DiT: A Powerful Multi-Resolution Diffusion Transformer with Fine-Grained Chinese Understanding
May 14, 2024
Autoren: Zhimin Li, Jianwei Zhang, Qin Lin, Jiangfeng Xiong, Yanxin Long, Xinchi Deng, Yingfang Zhang, Xingchao Liu, Minbin Huang, Zedong Xiao, Dayou Chen, Jiajun He, Jiahao Li, Wenyue Li, Chen Zhang, Rongwei Quan, Jianxiang Lu, Jiabin Huang, Xiaoyan Yuan, Xiaoxiao Zheng, Yixuan Li, Jihong Zhang, Chao Zhang, Meng Chen, Jie Liu, Zheng Fang, Weiyan Wang, Jinbao Xue, Yangyu Tao, Jianchen Zhu, Kai Liu, Sihuan Lin, Yifu Sun, Yun Li, Dongdong Wang, Mingtao Chen, Zhichao Hu, Xiao Xiao, Yan Chen, Yuhong Liu, Wei Liu, Di Wang, Yong Yang, Jie Jiang, Qinglin Lu
cs.AI
Zusammenfassung
Wir präsentieren Hunyuan-DiT, einen Text-zu-Bild-Diffusionstransformer mit feingranuliertem Verständnis sowohl von Englisch als auch von Chinesisch. Um Hunyuan-DiT aufzubauen, entwerfen wir sorgfältig die Transformer-Struktur, den Text-Encoder und die Positionscodierung. Wir erstellen auch von Grund auf eine gesamte Datenpipeline, um Daten für die iterative Modelloptimierung zu aktualisieren und zu bewerten. Für ein feingranuliertes Sprachverständnis trainieren wir ein Multimodales Großes Sprachmodell, um die Bildunterschriften zu verfeinern. Schließlich kann Hunyuan-DiT einen Multi-Turn-Multimodal-Dialog mit Benutzern durchführen, Bilder gemäß dem Kontext generieren und verfeinern. Durch unser ganzheitliches menschliches Evaluierungsprotokoll mit mehr als 50 professionellen menschlichen Evaluatoren setzt Hunyuan-DiT im Vergleich zu anderen Open-Source-Modellen einen neuen Stand der Technik in der chinesischen Bildgenerierung. Code und vortrainierte Modelle sind öffentlich verfügbar unter github.com/Tencent/HunyuanDiT.
English
We present Hunyuan-DiT, a text-to-image diffusion transformer with
fine-grained understanding of both English and Chinese. To construct
Hunyuan-DiT, we carefully design the transformer structure, text encoder, and
positional encoding. We also build from scratch a whole data pipeline to update
and evaluate data for iterative model optimization. For fine-grained language
understanding, we train a Multimodal Large Language Model to refine the
captions of the images. Finally, Hunyuan-DiT can perform multi-turn multimodal
dialogue with users, generating and refining images according to the context.
Through our holistic human evaluation protocol with more than 50 professional
human evaluators, Hunyuan-DiT sets a new state-of-the-art in Chinese-to-image
generation compared with other open-source models. Code and pretrained models
are publicly available at github.com/Tencent/HunyuanDiTSummary
AI-Generated Summary