StrandDesigner:スケッチガイダンスによる実用的なストランド生成に向けて
StrandDesigner: Towards Practical Strand Generation with Sketch Guidance
August 3, 2025
著者: Na Zhang, Moran Li, Chengming Xu, Han Feng, Xiaobin Hu, Jiangning Zhang, Weijian Cao, Chengjie Wang, Yanwei Fu
cs.AI
要旨
リアルな髪の毛のストランド生成は、コンピュータグラフィックスや仮想現実などのアプリケーションにおいて重要である。テキストや画像から髪型を生成する拡散モデルは存在するが、これらの入力は精度とユーザーフレンドリーさに欠けている。代わりに、我々は初めてのスケッチベースのストランド生成モデルを提案し、より細かい制御を提供しながらもユーザーフレンドリーなままである。我々のフレームワークは、複雑なストランド間の相互作用や多様なスケッチパターンのモデリングといった主要な課題に取り組むために、2つの主要なイノベーションを導入している。1つは、3Dストランドをマルチスケールの潜在空間にエンコードする学習可能なストランドアップサンプリング戦略であり、もう1つは、粒度レベル間の一貫性を確保するために拡散ヘッドを備えたトランスフォーマーを使用したマルチスケール適応型条件付けメカニズムである。いくつかのベンチマークデータセットでの実験により、我々の手法が現実感と精度において既存のアプローチを上回ることが示された。定性的な結果もその有効性をさらに裏付けている。コードは[GitHub](https://github.com/fighting-Zhang/StrandDesigner)で公開される予定である。
English
Realistic hair strand generation is crucial for applications like computer
graphics and virtual reality. While diffusion models can generate hairstyles
from text or images, these inputs lack precision and user-friendliness.
Instead, we propose the first sketch-based strand generation model, which
offers finer control while remaining user-friendly. Our framework tackles key
challenges, such as modeling complex strand interactions and diverse sketch
patterns, through two main innovations: a learnable strand upsampling strategy
that encodes 3D strands into multi-scale latent spaces, and a multi-scale
adaptive conditioning mechanism using a transformer with diffusion heads to
ensure consistency across granularity levels. Experiments on several benchmark
datasets show our method outperforms existing approaches in realism and
precision. Qualitative results further confirm its effectiveness. Code will be
released at [GitHub](https://github.com/fighting-Zhang/StrandDesigner).