ChatPaper.aiChatPaper

포니메이터: 다용도 인간-인간 상호작용 애니메이션을 위한 인터랙티브 포즈 전개

Ponimator: Unfolding Interactive Pose for Versatile Human-human Interaction Animation

October 16, 2025
저자: Shaowei Liu, Chuan Guo, Bing Zhou, Jian Wang
cs.AI

초록

근접한 인간 간 상호작용 자세는 상호작용 역학에 대한 풍부한 맥락적 정보를 전달합니다. 이러한 자세가 주어졌을 때, 인간은 인간 행동에 대한 강력한 사전 지식을 바탕으로 맥락을 직관적으로 추론하고 가능한 과거 및 미래의 역학을 예측할 수 있습니다. 이러한 관찰에서 영감을 받아, 우리는 다재다능한 상호작용 애니메이션을 위한 근접 상호작용 자세에 기반한 간단한 프레임워크인 Ponimator를 제안합니다. 우리의 훈련 데이터는 모션 캡처 상호작용 데이터셋에서 추출한 밀접한 접촉 상태의 두 사람 자세와 그 주변의 시간적 맥락으로 구성됩니다. 상호작용 자세의 사전 지식을 활용하여, Ponimator는 두 가지 조건부 확산 모델을 사용합니다: (1) 시간적 사전 지식을 사용하여 상호작용 자세로부터 동적 모션 시퀀스를 생성하는 자세 애니메이터, 그리고 (2) 공간적 사전 지식을 적용하여 단일 자세, 텍스트, 또는 둘 다로부터 상호작용 자세를 합성하는 자세 생성기. Ponimator는 이미지 기반 상호작용 애니메이션, 반응 애니메이션, 텍스트-투-상호작용 합성 등 다양한 작업을 지원하며, 고품질 모션 캡처 데이터에서 오픈 월드 시나리오로 상호작용 지식을 전이하는 것을 용이하게 합니다. 다양한 데이터셋과 애플리케이션에 걸친 실험적 연구는 자세 사전 지식의 보편성과 우리 프레임워크의 효과성 및 견고성을 입증합니다.
English
Close-proximity human-human interactive poses convey rich contextual information about interaction dynamics. Given such poses, humans can intuitively infer the context and anticipate possible past and future dynamics, drawing on strong priors of human behavior. Inspired by this observation, we propose Ponimator, a simple framework anchored on proximal interactive poses for versatile interaction animation. Our training data consists of close-contact two-person poses and their surrounding temporal context from motion-capture interaction datasets. Leveraging interactive pose priors, Ponimator employs two conditional diffusion models: (1) a pose animator that uses the temporal prior to generate dynamic motion sequences from interactive poses, and (2) a pose generator that applies the spatial prior to synthesize interactive poses from a single pose, text, or both when interactive poses are unavailable. Collectively, Ponimator supports diverse tasks, including image-based interaction animation, reaction animation, and text-to-interaction synthesis, facilitating the transfer of interaction knowledge from high-quality mocap data to open-world scenarios. Empirical experiments across diverse datasets and applications demonstrate the universality of the pose prior and the effectiveness and robustness of our framework.
PDF32October 17, 2025