ChatPaper.aiChatPaper

PixelSmile:微細な顔表情編集へのアプローチ

PixelSmile: Toward Fine-Grained Facial Expression Editing

March 26, 2026
著者: Jiabin Hua, Hengyuan Xu, Aojie Li, Wei Cheng, Gang Yu, Xingjun Ma, Yu-Gang Jiang
cs.AI

要旨

微細な表情編集は、長らく内在的な意味論的重複によって制限されてきました。この問題に対処するため、我々は連続的な感情アノテーションを備えたFFEデータセットを構築し、構造的混同、編集精度、線形制御性、表情編集とアイデンティティ保存のトレードオフを評価するFFE-Benchを確立しました。本論文では、完全対称な共同学習により表情意味論を分離する拡散フレームワークPixelSmileを提案します。PixelSmileは強度監督と対照学習を組み合わせることで、より強力で識別性の高い表情を生成し、テキスト潜在空間補間による精密かつ安定した線形表情制御を実現します。大規模な実験により、PixelSmileが優れた分離性能と堅牢なアイデンティティ保存を達成し、連続的で制御可能な微細表情編集における有効性が確認されました。さらに、自然な滑らかな表情ブレンディングもサポートします。
English
Fine-grained facial expression editing has long been limited by intrinsic semantic overlap. To address this, we construct the Flex Facial Expression (FFE) dataset with continuous affective annotations and establish FFE-Bench to evaluate structural confusion, editing accuracy, linear controllability, and the trade-off between expression editing and identity preservation. We propose PixelSmile, a diffusion framework that disentangles expression semantics via fully symmetric joint training. PixelSmile combines intensity supervision with contrastive learning to produce stronger and more distinguishable expressions, achieving precise and stable linear expression control through textual latent interpolation. Extensive experiments demonstrate that PixelSmile achieves superior disentanglement and robust identity preservation, confirming its effectiveness for continuous, controllable, and fine-grained expression editing, while naturally supporting smooth expression blending.
PDF1113March 29, 2026