ChatPaper.aiChatPaper

Ponimator: Развертывание интерактивной позы для универсальной анимации взаимодействия между людьми

Ponimator: Unfolding Interactive Pose for Versatile Human-human Interaction Animation

October 16, 2025
Авторы: Shaowei Liu, Chuan Guo, Bing Zhou, Jian Wang
cs.AI

Аннотация

Позы, возникающие при близком взаимодействии людей, передают богатую контекстуальную информацию о динамике взаимодействия. Имея такие позы, люди могут интуитивно выводить контекст и предсказывать возможные прошлые и будущие динамические изменения, опираясь на сильные априорные знания о поведении человека. Вдохновленные этим наблюдением, мы предлагаем Ponimator — простую структуру, основанную на проксимальных интерактивных позах для создания универсальной анимации взаимодействия. Наши обучающие данные состоят из поз двух людей в тесном контакте и их временного контекста, полученных из наборов данных motion-capture взаимодействий. Используя априорные знания о интерактивных позах, Ponimator применяет две условные модели диффузии: (1) аниматор поз, который использует временной приоритет для генерации динамических последовательностей движений из интерактивных поз, и (2) генератор поз, который применяет пространственный приоритет для синтеза интерактивных поз из одной позы, текста или обоих, когда интерактивные позы недоступны. В совокупности Ponimator поддерживает разнообразные задачи, включая анимацию взаимодействия на основе изображений, анимацию реакций и синтез взаимодействия из текста, что способствует переносу знаний о взаимодействии из высококачественных данных motion-capture в открытые сценарии. Эмпирические эксперименты на различных наборах данных и приложениях демонстрируют универсальность приоритета поз, а также эффективность и надежность нашей структуры.
English
Close-proximity human-human interactive poses convey rich contextual information about interaction dynamics. Given such poses, humans can intuitively infer the context and anticipate possible past and future dynamics, drawing on strong priors of human behavior. Inspired by this observation, we propose Ponimator, a simple framework anchored on proximal interactive poses for versatile interaction animation. Our training data consists of close-contact two-person poses and their surrounding temporal context from motion-capture interaction datasets. Leveraging interactive pose priors, Ponimator employs two conditional diffusion models: (1) a pose animator that uses the temporal prior to generate dynamic motion sequences from interactive poses, and (2) a pose generator that applies the spatial prior to synthesize interactive poses from a single pose, text, or both when interactive poses are unavailable. Collectively, Ponimator supports diverse tasks, including image-based interaction animation, reaction animation, and text-to-interaction synthesis, facilitating the transfer of interaction knowledge from high-quality mocap data to open-world scenarios. Empirical experiments across diverse datasets and applications demonstrate the universality of the pose prior and the effectiveness and robustness of our framework.
PDF32December 21, 2025