ChatPaper.aiChatPaper

Hunyuan3D 2.5: 궁극의 디테일을 위한 고품질 3D 자산 생성 기술

Hunyuan3D 2.5: Towards High-Fidelity 3D Assets Generation with Ultimate Details

June 19, 2025
저자: Zeqiang Lai, Yunfei Zhao, Haolin Liu, Zibo Zhao, Qingxiang Lin, Huiwen Shi, Xianghui Yang, Mingxin Yang, Shuhui Yang, Yifei Feng, Sheng Zhang, Xin Huang, Di Luo, Fan Yang, Fang Yang, Lifu Wang, Sicong Liu, Yixuan Tang, Yulin Cai, Zebin He, Tian Liu, Yuhong Liu, Jie Jiang, Linus, Jingwei Huang, Chunchao Guo
cs.AI

초록

본 보고서에서는 고해상도 및 세밀한 텍스처가 적용된 3D 자산을 생성하기 위한 강력한 3D 확산 모델 제품군인 Hunyuan3D 2.5를 소개합니다. Hunyuan3D 2.5는 이전 버전인 Hunyuan3D 2.0의 2단계 파이프라인을 유지하면서도, 형태 및 텍스처 생성 측면에서 상당한 발전을 이루었습니다. 형태 생성 측면에서는, 확장된 고품질 데이터셋, 모델 크기 및 컴퓨팅 자원을 활용하여 훈련된 새로운 형태 기반 모델인 LATTICE를 도입했습니다. 우리의 가장 큰 모델은 100억 개의 파라미터를 갖추고 있으며, 깔끔하고 매끄러운 메쉬 표면을 유지하면서도 정확한 이미지-3D 추적을 통해 선명하고 세밀한 3D 형태를 생성함으로써, 생성된 3D 형태와 수작업으로 제작된 3D 형태 간의 격차를 크게 줄였습니다. 텍스처 생성 측면에서는, Hunyuan3D 2.0 Paint 모델을 확장한 새로운 다중 뷰 아키텍처를 통해 물리 기반 렌더링(PBR)이 업그레이드되었습니다. 광범위한 평가를 통해 Hunyuan3D 2.5가 형태 및 종단 간 텍스처 생성 모두에서 이전 방법들을 크게 능가함을 확인했습니다.
English
In this report, we present Hunyuan3D 2.5, a robust suite of 3D diffusion models aimed at generating high-fidelity and detailed textured 3D assets. Hunyuan3D 2.5 follows two-stages pipeline of its previous version Hunyuan3D 2.0, while demonstrating substantial advancements in both shape and texture generation. In terms of shape generation, we introduce a new shape foundation model -- LATTICE, which is trained with scaled high-quality datasets, model-size, and compute. Our largest model reaches 10B parameters and generates sharp and detailed 3D shape with precise image-3D following while keeping mesh surface clean and smooth, significantly closing the gap between generated and handcrafted 3D shapes. In terms of texture generation, it is upgraded with phyiscal-based rendering (PBR) via a novel multi-view architecture extended from Hunyuan3D 2.0 Paint model. Our extensive evaluation shows that Hunyuan3D 2.5 significantly outperforms previous methods in both shape and end-to-end texture generation.
PDF162June 23, 2025