OutfitAnyone: Prova virtuale di altissima qualità per qualsiasi capo d'abbigliamento e qualsiasi persona
OutfitAnyone: Ultra-high Quality Virtual Try-On for Any Clothing and Any Person
July 23, 2024
Autori: Ke Sun, Jian Cao, Qi Wang, Linrui Tian, Xindi Zhang, Lian Zhuo, Bang Zhang, Liefeng Bo, Wenbo Zhou, Weiming Zhang, Daiheng Gao
cs.AI
Abstract
Il Virtual Try-On (VTON) è diventata una tecnologia rivoluzionaria, consentendo agli utenti di sperimentare con la moda senza dover fisicamente provare i capi di abbigliamento. Tuttavia, i metodi esistenti spesso incontrano difficoltà nel generare risultati ad alta fedeltà e con dettagli coerenti. Sebbene i modelli di diffusione, come la serie Stable Diffusion, abbiano dimostrato la loro capacità nel creare immagini di alta qualità e fotorealistiche, affrontano sfide significative negli scenari di generazione condizionata come il VTON. In particolare, questi modelli faticano a mantenere un equilibrio tra controllo e coerenza quando generano immagini per prove virtuali di abbigliamento. OutfitAnyone affronta queste limitazioni sfruttando un modello di diffusione condizionata a due flussi, permettendogli di gestire abilmente la deformazione degli indumenti per risultati più realistici. Si distingue per fattori di modulazione della scalabilità come la posa, la forma del corpo e un'ampia applicabilità, estendendosi dalle immagini anime a quelle in contesti reali. Le prestazioni di OutfitAnyone in scenari diversificati ne sottolineano l'utilità e la prontezza per il dispiegamento nel mondo reale. Per maggiori dettagli e risultati animati, consultare https://humanaigc.github.io/outfit-anyone/.
English
Virtual Try-On (VTON) has become a transformative technology, empowering
users to experiment with fashion without ever having to physically try on
clothing. However, existing methods often struggle with generating
high-fidelity and detail-consistent results. While diffusion models, such as
Stable Diffusion series, have shown their capability in creating high-quality
and photorealistic images, they encounter formidable challenges in conditional
generation scenarios like VTON. Specifically, these models struggle to maintain
a balance between control and consistency when generating images for virtual
clothing trials. OutfitAnyone addresses these limitations by leveraging a
two-stream conditional diffusion model, enabling it to adeptly handle garment
deformation for more lifelike results. It distinguishes itself with
scalability-modulating factors such as pose, body shape and broad
applicability, extending from anime to in-the-wild images. OutfitAnyone's
performance in diverse scenarios underscores its utility and readiness for
real-world deployment. For more details and animated results, please see
https://humanaigc.github.io/outfit-anyone/.