ChatPaper.aiChatPaper

Animiere Jeden 2: Hochauflösende Charakterbildanimation mit Umgebungszugänglichkeit

Animate Anyone 2: High-Fidelity Character Image Animation with Environment Affordance

February 10, 2025
Autoren: Li Hu, Guangyuan Wang, Zhen Shen, Xin Gao, Dechao Meng, Lian Zhuo, Peng Zhang, Bang Zhang, Liefeng Bo
cs.AI

Zusammenfassung

Aktuelle Methoden zur Animation von Charakterbildern auf Basis von Diffusionsmodellen, wie z.B. "Animate Anyone", haben bedeutende Fortschritte bei der Erzeugung konsistenter und generalisierbarer Charakteranimationen erzielt. Diese Ansätze scheitern jedoch daran, vernünftige Verknüpfungen zwischen Charakteren und ihrer Umgebung zu erzeugen. Um diese Einschränkung zu überwinden, stellen wir "Animate Anyone 2" vor, das darauf abzielt, Charaktere mit Umgebungsfunktionalität zu animieren. Neben der Extraktion von Bewegungssignalen aus dem Quellvideo erfassen wir zusätzlich Umgebungsrepräsentationen als bedingte Eingaben. Die Umgebung wird als die Region formuliert, die von Charakteren ausgeschlossen ist, und unser Modell generiert Charaktere, um diese Regionen zu bevölkern, während es die Kohärenz mit dem Umgebungskontext aufrechterhält. Wir schlagen eine formagnostische Maskenstrategie vor, die die Beziehung zwischen Charakter und Umgebung effektiver charakterisiert. Darüber hinaus nutzen wir zur Verbesserung der Genauigkeit von Objektinteraktionen einen Objektführer, um Merkmale der interagierenden Objekte zu extrahieren, und verwenden räumliches Mischen für Merkmalseinspritzung. Wir führen auch eine Pose-Modulationsstrategie ein, die es dem Modell ermöglicht, mit vielfältigeren Bewegungsmustern umzugehen. Experimentelle Ergebnisse zeigen die überlegene Leistung der vorgeschlagenen Methode.
English
Recent character image animation methods based on diffusion models, such as Animate Anyone, have made significant progress in generating consistent and generalizable character animations. However, these approaches fail to produce reasonable associations between characters and their environments. To address this limitation, we introduce Animate Anyone 2, aiming to animate characters with environment affordance. Beyond extracting motion signals from source video, we additionally capture environmental representations as conditional inputs. The environment is formulated as the region with the exclusion of characters and our model generates characters to populate these regions while maintaining coherence with the environmental context. We propose a shape-agnostic mask strategy that more effectively characterizes the relationship between character and environment. Furthermore, to enhance the fidelity of object interactions, we leverage an object guider to extract features of interacting objects and employ spatial blending for feature injection. We also introduce a pose modulation strategy that enables the model to handle more diverse motion patterns. Experimental results demonstrate the superior performance of the proposed method.

Summary

AI-Generated Summary

PDF164February 13, 2025