ChatPaper.aiChatPaper

DreamHOI: Geração Dirigida por Sujeito de Interações Humanos-Objeto em 3D com Priors de Difusão

DreamHOI: Subject-Driven Generation of 3D Human-Object Interactions with Diffusion Priors

September 12, 2024
Autores: Thomas Hanwen Zhu, Ruining Li, Tomas Jakab
cs.AI

Resumo

Apresentamos o DreamHOI, um método inovador para a síntese de interações humano-objeto (HOIs) sem a necessidade de treinamento, possibilitando que um modelo humano 3D interaja realisticamente com qualquer objeto dado com base em uma descrição textual. Essa tarefa é complicada devido às diferentes categorias e geometrias de objetos do mundo real e à escassez de conjuntos de dados abrangendo diversas HOIs. Para contornar a necessidade de dados extensivos, aproveitamos modelos de difusão texto-imagem treinados em bilhões de pares de imagens e legendas. Otimizamos a articulação de um modelo humano esquelético usando gradientes de Amostragem de Destilação de Pontuação (SDS) obtidos desses modelos, que preveem edições no espaço da imagem. No entanto, retropropagar gradientes do espaço da imagem diretamente para parâmetros de articulação complexos é ineficaz devido à natureza local desses gradientes. Para superar isso, introduzimos uma representação dual implícita-explícita de um modelo esquelético, combinando campos de radiância neural (NeRFs) (implícitos) com articulação de malha impulsionada por esqueleto (explícita). Durante a otimização, transitamos entre formas implícitas e explícitas, fundamentando a geração de NeRF enquanto refinamos a articulação da malha. Validamos nossa abordagem por meio de experimentos extensivos, demonstrando sua eficácia na geração de HOIs realistas.
English
We present DreamHOI, a novel method for zero-shot synthesis of human-object interactions (HOIs), enabling a 3D human model to realistically interact with any given object based on a textual description. This task is complicated by the varying categories and geometries of real-world objects and the scarcity of datasets encompassing diverse HOIs. To circumvent the need for extensive data, we leverage text-to-image diffusion models trained on billions of image-caption pairs. We optimize the articulation of a skinned human mesh using Score Distillation Sampling (SDS) gradients obtained from these models, which predict image-space edits. However, directly backpropagating image-space gradients into complex articulation parameters is ineffective due to the local nature of such gradients. To overcome this, we introduce a dual implicit-explicit representation of a skinned mesh, combining (implicit) neural radiance fields (NeRFs) with (explicit) skeleton-driven mesh articulation. During optimization, we transition between implicit and explicit forms, grounding the NeRF generation while refining the mesh articulation. We validate our approach through extensive experiments, demonstrating its effectiveness in generating realistic HOIs.

Summary

AI-Generated Summary

PDF153November 16, 2024