StrandDesigner: 스케치 가이던스를 활용한 실용적 스트랜드 생성 기술
StrandDesigner: Towards Practical Strand Generation with Sketch Guidance
August 3, 2025
저자: Na Zhang, Moran Li, Chengming Xu, Han Feng, Xiaobin Hu, Jiangning Zhang, Weijian Cao, Chengjie Wang, Yanwei Fu
cs.AI
초록
실감나는 머리카락 가닥 생성은 컴퓨터 그래픽스와 가상 현실과 같은 응용 분야에서 매우 중요합니다. 확산 모델은 텍스트나 이미지로부터 헤어스타일을 생성할 수 있지만, 이러한 입력은 정밀도와 사용자 친화성이 부족합니다. 대신, 우리는 더 정밀한 제어를 제공하면서도 사용자 친화적인 최초의 스케치 기반 가닥 생성 모델을 제안합니다. 우리의 프레임워크는 복잡한 가닥 상호작용과 다양한 스케치 패턴을 모델링하는 주요 과제를 두 가지 주요 혁신을 통해 해결합니다: 3D 가닥을 다중 스케일 잠재 공간으로 인코딩하는 학습 가능한 가닥 업샘플링 전략, 그리고 세분성 수준 간 일관성을 보장하기 위해 확산 헤드를 가진 트랜스포머를 사용한 다중 스케일 적응형 조건화 메커니즘입니다. 여러 벤치마크 데이터셋에서의 실험은 우리의 방법이 현실감과 정밀도 면에서 기존 접근법을 능가함을 보여줍니다. 질적 결과 또한 그 효과를 입증합니다. 코드는 [GitHub](https://github.com/fighting-Zhang/StrandDesigner)에서 공개될 예정입니다.
English
Realistic hair strand generation is crucial for applications like computer
graphics and virtual reality. While diffusion models can generate hairstyles
from text or images, these inputs lack precision and user-friendliness.
Instead, we propose the first sketch-based strand generation model, which
offers finer control while remaining user-friendly. Our framework tackles key
challenges, such as modeling complex strand interactions and diverse sketch
patterns, through two main innovations: a learnable strand upsampling strategy
that encodes 3D strands into multi-scale latent spaces, and a multi-scale
adaptive conditioning mechanism using a transformer with diffusion heads to
ensure consistency across granularity levels. Experiments on several benchmark
datasets show our method outperforms existing approaches in realism and
precision. Qualitative results further confirm its effectiveness. Code will be
released at [GitHub](https://github.com/fighting-Zhang/StrandDesigner).