ChatPaper.aiChatPaper

SketchDynamics: Exploración de Bocetos Libres para la Expresión de Intenciones Dinámicas en la Generación de Animación

SketchDynamics: Exploring Free-Form Sketches for Dynamic Intent Expression in Animation Generation

January 28, 2026
Autores: Boyu Li, Lin-Ping Yuan, Zeyu Wang, Hongbo Fu
cs.AI

Resumen

El bocetaje ofrece una forma intuitiva de transmitir la intención dinámica en la creación de animaciones (es decir, cómo los elementos cambian en el tiempo y el espacio), lo que lo convierte en un medio natural para la creación automática de contenido. Sin embargo, los enfoques existentes a menudo limitan los bocetos a tokens de comando fijos o formas visuales predefinidas, pasando por alto su naturaleza libre y el papel central de los humanos en la configuración de la intención. Para abordar esto, presentamos un paradigma de interacción en el que los usuarios transmiten la intención dinámica a un modelo de visión y lenguaje mediante bocetos libres, instanciado aquí en un flujo de trabajo de storyboard de bocetos a gráficos en movimiento. Implementamos una interfaz y la mejoramos mediante un estudio de tres etapas con 24 participantes. El estudio muestra cómo los bocetos transmiten movimiento con una entrada mínima, cómo su ambigüedad inherente requiere que los usuarios intervengan para aclarar, y cómo los bocetos pueden guiar visualmente el refinamiento del video. Nuestros hallazgos revelan el potencial de la interacción entre el boceto y la IA para cerrar la brecha entre la intención y el resultado, y demuestran su aplicabilidad en la animación 3D y la generación de video.
English
Sketching provides an intuitive way to convey dynamic intent in animation authoring (i.e., how elements change over time and space), making it a natural medium for automatic content creation. Yet existing approaches often constrain sketches to fixed command tokens or predefined visual forms, overlooking their freeform nature and the central role of humans in shaping intention. To address this, we introduce an interaction paradigm where users convey dynamic intent to a vision-language model via free-form sketching, instantiated here in a sketch storyboard to motion graphics workflow. We implement an interface and improve it through a three-stage study with 24 participants. The study shows how sketches convey motion with minimal input, how their inherent ambiguity requires users to be involved for clarification, and how sketches can visually guide video refinement. Our findings reveal the potential of sketch and AI interaction to bridge the gap between intention and outcome, and demonstrate its applicability to 3D animation and video generation.
PDF10January 30, 2026