ChatPaper.aiChatPaper

ReMoMask: Abrufverstärkte maskierte Bewegungsgenerierung

ReMoMask: Retrieval-Augmented Masked Motion Generation

August 4, 2025
papers.authors: Zhengdao Li, Siheng Wang, Zeyu Zhang, Hao Tang
cs.AI

papers.abstract

Text-to-Motion (T2M)-Generierung zielt darauf ab, realistische und semantisch abgestimmte menschliche Bewegungssequenzen aus natürlichen Sprachbeschreibungen zu synthetisieren. Allerdings stehen aktuelle Ansätze vor doppelten Herausforderungen: Generative Modelle (z. B. Diffusionsmodelle) leiden unter begrenzter Vielfalt, Fehlerakkumulation und physikalischer Unplausibilität, während Retrieval-Augmented Generation (RAG)-Methoden Diffusionsinertie, partiellen Modus-Zusammenbruch und asynchrone Artefakte aufweisen. Um diese Einschränkungen zu überwinden, schlagen wir ReMoMask vor, ein einheitliches Framework, das drei Schlüsselinnovationen integriert: 1) Ein bidirektionales Momentum-Text-Motion-Modell entkoppelt die Skalierung negativer Beispiele von der Batch-Größe durch Momentum-Warteschlangen und verbessert die Präzision des cross-modalen Retrievals erheblich; 2) Ein semantischer räumlich-zeitlicher Aufmerksamkeitsmechanismus erzwingt biomechanische Einschränkungen während der part-basierten Fusion, um asynchrone Artefakte zu eliminieren; 3) RAG-Classier-Free Guidance integriert geringfügige unkonditionierte Generierung, um die Generalisierung zu verbessern. Basierend auf MoMasks RVQ-VAE generiert ReMoMask effizient zeitlich kohärente Bewegungen in minimalen Schritten. Umfangreiche Experimente auf Standard-Benchmarks demonstrieren die state-of-the-art Leistung von ReMoMask, mit einer Verbesserung der FID-Werte um 3,88 % und 10,97 % auf HumanML3D bzw. KIT-ML im Vergleich zur bisherigen SOTA-Methode RAG-T2M. Code: https://github.com/AIGeeksGroup/ReMoMask. Website: https://aigeeksgroup.github.io/ReMoMask.
English
Text-to-Motion (T2M) generation aims to synthesize realistic and semantically aligned human motion sequences from natural language descriptions. However, current approaches face dual challenges: Generative models (e.g., diffusion models) suffer from limited diversity, error accumulation, and physical implausibility, while Retrieval-Augmented Generation (RAG) methods exhibit diffusion inertia, partial-mode collapse, and asynchronous artifacts. To address these limitations, we propose ReMoMask, a unified framework integrating three key innovations: 1) A Bidirectional Momentum Text-Motion Model decouples negative sample scale from batch size via momentum queues, substantially improving cross-modal retrieval precision; 2) A Semantic Spatio-temporal Attention mechanism enforces biomechanical constraints during part-level fusion to eliminate asynchronous artifacts; 3) RAG-Classier-Free Guidance incorporates minor unconditional generation to enhance generalization. Built upon MoMask's RVQ-VAE, ReMoMask efficiently generates temporally coherent motions in minimal steps. Extensive experiments on standard benchmarks demonstrate the state-of-the-art performance of ReMoMask, achieving a 3.88% and 10.97% improvement in FID scores on HumanML3D and KIT-ML, respectively, compared to the previous SOTA method RAG-T2M. Code: https://github.com/AIGeeksGroup/ReMoMask. Website: https://aigeeksgroup.github.io/ReMoMask.
PDF22August 5, 2025