ChatPaper.aiChatPaper

Keyframer: 대규모 언어 모델을 활용한 애니메이션 디자인 혁신

Keyframer: Empowering Animation Design using Large Language Models

February 8, 2024
저자: Tiffany Tseng, Ruijia Cheng, Jeffrey Nichols
cs.AI

초록

대규모 언어 모델(LLMs)은 다양한 창의적 영역에 영향을 미칠 잠재력을 가지고 있지만, 애니메이션에의 적용은 아직 충분히 탐구되지 않았으며 사용자가 자연어로 움직임을 효과적으로 설명하는 방법과 같은 새로운 과제를 제시합니다. 본 논문에서는 정적 이미지(SVG)를 자연어로 애니메이션화하기 위한 디자인 도구인 Keyframer를 소개합니다. 전문 애니메이션 디자이너 및 엔지니어와의 인터뷰를 바탕으로, Keyframer는 프롬프팅과 생성된 출력의 직접 편집을 결합하여 애니메이션의 탐색 및 정제를 지원합니다. 또한 이 시스템은 사용자가 디자인 변형을 요청할 수 있게 하여 비교와 아이디어 구상을 지원합니다. 13명의 참가자를 대상으로 한 사용자 연구를 통해, 우리는 사용자 프롬프팅 전략에 대한 특성을 제시하며, 움직임을 설명하기 위한 의미론적 프롬프트 유형의 분류와 사용자가 생성된 출력에 반응하여 목표를 지속적으로 조정하는 '분해된' 프롬프팅 스타일을 포함합니다. 우리는 직접 편집이 프롬프팅과 함께 오늘날의 생성 도구에서 흔히 볼 수 있는 일회성 프롬프팅 인터페이스를 넘어 반복을 가능하게 하는 방식을 공유합니다. 이를 통해, 우리는 LLMs가 다양한 대중이 애니메이션 제작에 참여할 수 있도록 하는 방법을 제안합니다.
English
Large language models (LLMs) have the potential to impact a wide range of creative domains, but the application of LLMs to animation is underexplored and presents novel challenges such as how users might effectively describe motion in natural language. In this paper, we present Keyframer, a design tool for animating static images (SVGs) with natural language. Informed by interviews with professional animation designers and engineers, Keyframer supports exploration and refinement of animations through the combination of prompting and direct editing of generated output. The system also enables users to request design variants, supporting comparison and ideation. Through a user study with 13 participants, we contribute a characterization of user prompting strategies, including a taxonomy of semantic prompt types for describing motion and a 'decomposed' prompting style where users continually adapt their goals in response to generated output.We share how direct editing along with prompting enables iteration beyond one-shot prompting interfaces common in generative tools today. Through this work, we propose how LLMs might empower a range of audiences to engage with animation creation.
PDF131December 15, 2024