ChatPaper.aiChatPaper

OutfitAnyone: Prova virtuale di altissima qualità per qualsiasi capo d'abbigliamento e qualsiasi persona

OutfitAnyone: Ultra-high Quality Virtual Try-On for Any Clothing and Any Person

July 23, 2024
Autori: Ke Sun, Jian Cao, Qi Wang, Linrui Tian, Xindi Zhang, Lian Zhuo, Bang Zhang, Liefeng Bo, Wenbo Zhou, Weiming Zhang, Daiheng Gao
cs.AI

Abstract

Il Virtual Try-On (VTON) è diventata una tecnologia rivoluzionaria, consentendo agli utenti di sperimentare con la moda senza dover fisicamente provare i capi di abbigliamento. Tuttavia, i metodi esistenti spesso incontrano difficoltà nel generare risultati ad alta fedeltà e con dettagli coerenti. Sebbene i modelli di diffusione, come la serie Stable Diffusion, abbiano dimostrato la loro capacità nel creare immagini di alta qualità e fotorealistiche, affrontano sfide significative negli scenari di generazione condizionata come il VTON. In particolare, questi modelli faticano a mantenere un equilibrio tra controllo e coerenza quando generano immagini per prove virtuali di abbigliamento. OutfitAnyone affronta queste limitazioni sfruttando un modello di diffusione condizionata a due flussi, permettendogli di gestire abilmente la deformazione degli indumenti per risultati più realistici. Si distingue per fattori di modulazione della scalabilità come la posa, la forma del corpo e un'ampia applicabilità, estendendosi dalle immagini anime a quelle in contesti reali. Le prestazioni di OutfitAnyone in scenari diversificati ne sottolineano l'utilità e la prontezza per il dispiegamento nel mondo reale. Per maggiori dettagli e risultati animati, consultare https://humanaigc.github.io/outfit-anyone/.
English
Virtual Try-On (VTON) has become a transformative technology, empowering users to experiment with fashion without ever having to physically try on clothing. However, existing methods often struggle with generating high-fidelity and detail-consistent results. While diffusion models, such as Stable Diffusion series, have shown their capability in creating high-quality and photorealistic images, they encounter formidable challenges in conditional generation scenarios like VTON. Specifically, these models struggle to maintain a balance between control and consistency when generating images for virtual clothing trials. OutfitAnyone addresses these limitations by leveraging a two-stream conditional diffusion model, enabling it to adeptly handle garment deformation for more lifelike results. It distinguishes itself with scalability-modulating factors such as pose, body shape and broad applicability, extending from anime to in-the-wild images. OutfitAnyone's performance in diverse scenarios underscores its utility and readiness for real-world deployment. For more details and animated results, please see https://humanaigc.github.io/outfit-anyone/.
PDF295November 28, 2024