ChatPaper.aiChatPaper

DiffPortrait360: Consistente Portretdiffusie voor 360-graden Viewsynthese

DiffPortrait360: Consistent Portrait Diffusion for 360 View Synthesis

March 19, 2025
Auteurs: Yuming Gu, Phong Tran, Yujian Zheng, Hongyi Xu, Heyuan Li, Adilbek Karmanov, Hao Li
cs.AI

Samenvatting

Het genereren van hoogwaardige 360-graden weergaven van menselijke hoofden vanuit enkelvoudige afbeeldingen is essentieel voor het mogelijk maken van toegankelijke immersive telepresence-toepassingen en schaalbare gepersonaliseerde contentcreatie. Hoewel geavanceerde methoden voor het genereren van volledige hoofden beperkt zijn tot het modelleren van realistische menselijke hoofden, kunnen de nieuwste op diffusie gebaseerde benaderingen voor stijl-omnisciënte hoofdsynthese alleen frontale weergaven produceren en worstelen ze met consistentie tussen verschillende gezichtspunten, wat hun conversie naar echte 3D-modellen voor rendering vanuit willekeurige hoeken verhindert. Wij introduceren een nieuwe aanpak die volledig consistente 360-graden hoofdzichten genereert, geschikt voor menselijke, gestileerde en antropomorfe vormen, inclusief accessoires zoals brillen en hoeden. Onze methode bouwt voort op het DiffPortrait3D-framework, waarbij een aangepaste ControlNet wordt geïntegreerd voor het genereren van details aan de achterkant van het hoofd en een duale uiterlijkmodule om globale consistentie tussen voor- en achterkant te waarborgen. Door te trainen op continue gezichtsvolgordes en een referentiebeeld van de achterkant te integreren, bereikt onze aanpak een robuuste, lokaal continue synthese van gezichtspunten. Ons model kan worden gebruikt om hoogwaardige neurale stralingsvelden (NeRFs) te produceren voor real-time, vrijstandpunt-rendering, en overtreft state-of-the-art methoden in object-synthese en 360-graden hoofdsynthese voor zeer uitdagende portretinvoer.
English
Generating high-quality 360-degree views of human heads from single-view images is essential for enabling accessible immersive telepresence applications and scalable personalized content creation. While cutting-edge methods for full head generation are limited to modeling realistic human heads, the latest diffusion-based approaches for style-omniscient head synthesis can produce only frontal views and struggle with view consistency, preventing their conversion into true 3D models for rendering from arbitrary angles. We introduce a novel approach that generates fully consistent 360-degree head views, accommodating human, stylized, and anthropomorphic forms, including accessories like glasses and hats. Our method builds on the DiffPortrait3D framework, incorporating a custom ControlNet for back-of-head detail generation and a dual appearance module to ensure global front-back consistency. By training on continuous view sequences and integrating a back reference image, our approach achieves robust, locally continuous view synthesis. Our model can be used to produce high-quality neural radiance fields (NeRFs) for real-time, free-viewpoint rendering, outperforming state-of-the-art methods in object synthesis and 360-degree head generation for very challenging input portraits.

Summary

AI-Generated Summary

PDF82March 26, 2025