OutfitAnyone: Ultra-hoogwaardige virtuele passen voor elk kledingstuk en elke persoon
OutfitAnyone: Ultra-high Quality Virtual Try-On for Any Clothing and Any Person
July 23, 2024
Auteurs: Ke Sun, Jian Cao, Qi Wang, Linrui Tian, Xindi Zhang, Lian Zhuo, Bang Zhang, Liefeng Bo, Wenbo Zhou, Weiming Zhang, Daiheng Gao
cs.AI
Samenvatting
Virtual Try-On (VTON) is uitgegroeid tot een transformerende technologie die gebruikers in staat stelt om met mode te experimenteren zonder fysiek kleding te hoeven passen. Bestaande methoden hebben echter vaak moeite met het genereren van hoogwaardige en detailconsistente resultaten. Hoewel diffusiemodellen, zoals de Stable Diffusion-serie, hun vermogen hebben getoond om hoogwaardige en fotorealistische afbeeldingen te creëren, ondervinden ze aanzienlijke uitdagingen in conditionele generatiescenario's zoals VTON. Deze modellen hebben specifiek moeite om een balans te behouden tussen controle en consistentie bij het genereren van afbeeldingen voor virtuele kledingpassessies. OutfitAnyone overbrugt deze beperkingen door gebruik te maken van een tweestromig conditioneel diffusiemodel, waardoor het in staat is om kledingvervorming op een levensechte manier te hanteren. Het onderscheidt zich door schaalbaarheidsmodulerende factoren zoals houding, lichaamsvorm en brede toepasbaarheid, variërend van anime tot afbeeldingen in natuurlijke omgevingen. De prestaties van OutfitAnyone in diverse scenario's onderstrepen de bruikbaarheid en gereedheid voor implementatie in de praktijk. Voor meer details en geanimeerde resultaten, zie https://humanaigc.github.io/outfit-anyone/.
English
Virtual Try-On (VTON) has become a transformative technology, empowering
users to experiment with fashion without ever having to physically try on
clothing. However, existing methods often struggle with generating
high-fidelity and detail-consistent results. While diffusion models, such as
Stable Diffusion series, have shown their capability in creating high-quality
and photorealistic images, they encounter formidable challenges in conditional
generation scenarios like VTON. Specifically, these models struggle to maintain
a balance between control and consistency when generating images for virtual
clothing trials. OutfitAnyone addresses these limitations by leveraging a
two-stream conditional diffusion model, enabling it to adeptly handle garment
deformation for more lifelike results. It distinguishes itself with
scalability-modulating factors such as pose, body shape and broad
applicability, extending from anime to in-the-wild images. OutfitAnyone's
performance in diverse scenarios underscores its utility and readiness for
real-world deployment. For more details and animated results, please see
https://humanaigc.github.io/outfit-anyone/.