ChatPaper.aiChatPaper

OutfitAnyone: Ultra-hoogwaardige virtuele passen voor elk kledingstuk en elke persoon

OutfitAnyone: Ultra-high Quality Virtual Try-On for Any Clothing and Any Person

July 23, 2024
Auteurs: Ke Sun, Jian Cao, Qi Wang, Linrui Tian, Xindi Zhang, Lian Zhuo, Bang Zhang, Liefeng Bo, Wenbo Zhou, Weiming Zhang, Daiheng Gao
cs.AI

Samenvatting

Virtual Try-On (VTON) is uitgegroeid tot een transformerende technologie die gebruikers in staat stelt om met mode te experimenteren zonder fysiek kleding te hoeven passen. Bestaande methoden hebben echter vaak moeite met het genereren van hoogwaardige en detailconsistente resultaten. Hoewel diffusiemodellen, zoals de Stable Diffusion-serie, hun vermogen hebben getoond om hoogwaardige en fotorealistische afbeeldingen te creëren, ondervinden ze aanzienlijke uitdagingen in conditionele generatiescenario's zoals VTON. Deze modellen hebben specifiek moeite om een balans te behouden tussen controle en consistentie bij het genereren van afbeeldingen voor virtuele kledingpassessies. OutfitAnyone overbrugt deze beperkingen door gebruik te maken van een tweestromig conditioneel diffusiemodel, waardoor het in staat is om kledingvervorming op een levensechte manier te hanteren. Het onderscheidt zich door schaalbaarheidsmodulerende factoren zoals houding, lichaamsvorm en brede toepasbaarheid, variërend van anime tot afbeeldingen in natuurlijke omgevingen. De prestaties van OutfitAnyone in diverse scenario's onderstrepen de bruikbaarheid en gereedheid voor implementatie in de praktijk. Voor meer details en geanimeerde resultaten, zie https://humanaigc.github.io/outfit-anyone/.
English
Virtual Try-On (VTON) has become a transformative technology, empowering users to experiment with fashion without ever having to physically try on clothing. However, existing methods often struggle with generating high-fidelity and detail-consistent results. While diffusion models, such as Stable Diffusion series, have shown their capability in creating high-quality and photorealistic images, they encounter formidable challenges in conditional generation scenarios like VTON. Specifically, these models struggle to maintain a balance between control and consistency when generating images for virtual clothing trials. OutfitAnyone addresses these limitations by leveraging a two-stream conditional diffusion model, enabling it to adeptly handle garment deformation for more lifelike results. It distinguishes itself with scalability-modulating factors such as pose, body shape and broad applicability, extending from anime to in-the-wild images. OutfitAnyone's performance in diverse scenarios underscores its utility and readiness for real-world deployment. For more details and animated results, please see https://humanaigc.github.io/outfit-anyone/.
PDF296February 7, 2026