ChatPaper.aiChatPaper

Make-It-Poseable: Voortschrijdend Latent Poseringsmodel voor 3D Humanoïde Karakteranimatie

Make-It-Poseable: Feed-forward Latent Posing Model for 3D Humanoid Character Animation

December 18, 2025
Auteurs: Zhiyang Guo, Ori Zhang, Jax Xiang, Alan Zhao, Wengang Zhou, Houqiang Li
cs.AI

Samenvatting

Het poseren van 3D-personages is een fundamentele taak in computergrafiek en computer vision. Bestaande methoden, zoals auto-rigging en pose-geconditioneerde generatie, kampen echter vaak met uitdagingen zoals onnauwkeurige voorspelling van skinning-gewichten, topologische imperfecties en slechte pose-conformiteit, wat hun robuustheid en generaliseerbaarheid beperkt. Om deze beperkingen te overwinnen, introduceren wij Make-It-Poseable, een nieuw feed-forward raamwerk dat karakterposering herformuleert als een latentieruimte-transformatieprobleem. In plaats van mesh-vertices te vervormen zoals in traditionele pijplijnen, reconstrueert onze methode het personage in nieuwe poses door direct diens latente representatie te manipuleren. De kern van onze methode wordt gevormd door een latent posing transformer die vormtokens manipuleert op basis van skeletbeweging. Dit proces wordt gefaciliteerd door een dichte pose-representatie voor precieze controle. Om hoogwaardige geometrie te garanderen en topologische veranderingen mogelijk te maken, introduceren wij tevens een latentieruimte-supervisiestrategie en een adaptieve completiemodule. Onze methode toont superieure prestaties in poseerkwaliteit. Zij breidt zich ook natuurlijk uit naar 3D-bewerkingsapplicaties zoals onderdeelvervanging en -verfijning.
English
Posing 3D characters is a fundamental task in computer graphics and vision. However, existing methods like auto-rigging and pose-conditioned generation often struggle with challenges such as inaccurate skinning weight prediction, topological imperfections, and poor pose conformance, limiting their robustness and generalizability. To overcome these limitations, we introduce Make-It-Poseable, a novel feed-forward framework that reformulates character posing as a latent-space transformation problem. Instead of deforming mesh vertices as in traditional pipelines, our method reconstructs the character in new poses by directly manipulating its latent representation. At the core of our method is a latent posing transformer that manipulates shape tokens based on skeletal motion. This process is facilitated by a dense pose representation for precise control. To ensure high-fidelity geometry and accommodate topological changes, we also introduce a latent-space supervision strategy and an adaptive completion module. Our method demonstrates superior performance in posing quality. It also naturally extends to 3D editing applications like part replacement and refinement.
PDF42December 31, 2025