ChatPaper.aiChatPaper

OmniLottie:パラメータ化Lottieトークンによるベクターアニメーション生成

OmniLottie: Generating Vector Animations via Parameterized Lottie Tokens

March 2, 2026
著者: Yiying Yang, Wei Cheng, Sijin Chen, Honghao Fu, Xianfang Zeng, Yujun Cai, Gang Yu, Xingjun Ma
cs.AI

要旨

OmniLottieは、マルチモーダルな指示から高品質なベクトルアニメーションを生成する多目的フレームワークです。柔軟なモーションと視覚コンテンツの制御を実現するため、形状とアニメーション挙動の両方を表現する軽量JSON形式であるLottieに着目しました。しかし、生のLottie JSONファイルには不変の構造的メタデータとフォーマットトークンが大量に含まれており、ベクトルアニメーション生成の学習に重大な課題をもたらします。そこで我々は、JSONファイルを形状・アニメーション機能・制御パラメータを表現する構造化されたコマンドとパラメータの系列に変換する、精巧に設計されたLottieトークナイザを導入します。このトークナイザにより、事前学習済み視覚言語モデルを基盤としたOmniLottieを構築し、マルチモーダルな交互指示に従って高品質なベクトルアニメーションを生成することが可能になります。さらにベクトルアニメーション生成の研究を推進するため、専門家によってデザインされた大規模なベクトルアニメーションとテキスト・視覚的注釈を組み合わせた大規模データセットMMLottie-2Mを構築しました。大規模な実験を通じて、OmniLottieがマルチモーダルな人間の指示に忠実で、鮮やかかつ意味的に整合性の取れたベクトルアニメーションを生成できることを実証しました。
English
OmniLottie is a versatile framework that generates high quality vector animations from multi-modal instructions. For flexible motion and visual content control, we focus on Lottie, a light weight JSON formatting for both shapes and animation behaviors representation. However, the raw Lottie JSON files contain extensive invariant structural metadata and formatting tokens, posing significant challenges for learning vector animation generation. Therefore, we introduce a well designed Lottie tokenizer that transforms JSON files into structured sequences of commands and parameters representing shapes, animation functions and control parameters. Such tokenizer enables us to build OmniLottie upon pretrained vision language models to follow multi-modal interleaved instructions and generate high quality vector animations. To further advance research in vector animation generation, we curate MMLottie-2M, a large scale dataset of professionally designed vector animations paired with textual and visual annotations. With extensive experiments, we validate that OmniLottie can produce vivid and semantically aligned vector animations that adhere closely to multi modal human instructions.
PDF1072March 4, 2026