ChatPaper.aiChatPaper

OutfitAnyone: Ultra-hochwertige virtuelle Anprobe für jede Kleidung und jede Person

OutfitAnyone: Ultra-high Quality Virtual Try-On for Any Clothing and Any Person

July 23, 2024
papers.authors: Ke Sun, Jian Cao, Qi Wang, Linrui Tian, Xindi Zhang, Lian Zhuo, Bang Zhang, Liefeng Bo, Wenbo Zhou, Weiming Zhang, Daiheng Gao
cs.AI

papers.abstract

Die virtuelle Anprobe (VTON) hat sich zu einer wegweisenden Technologie entwickelt, die es Benutzern ermöglicht, mit Mode zu experimentieren, ohne jemals physisch Kleidung anprobieren zu müssen. Allerdings haben bestehende Methoden oft Schwierigkeiten, hochwertige und detailkonsistente Ergebnisse zu erzeugen. Während Diffusionsmodelle, wie die Stable Diffusion-Serie, ihre Fähigkeit zur Erstellung hochwertiger und fotorealistischer Bilder gezeigt haben, stoßen sie auf beträchtliche Herausforderungen in bedingten Generierungsszenarien wie VTON. Insbesondere haben diese Modelle Schwierigkeiten, ein Gleichgewicht zwischen Steuerung und Konsistenz beim Generieren von Bildern für virtuelle Kleidungsanproben aufrechtzuerhalten. OutfitAnyone begegnet diesen Einschränkungen, indem es ein zweisträngiges bedingtes Diffusionsmodell nutzt, das es ihm ermöglicht, Kleiderverformungen für realistischere Ergebnisse geschickt zu handhaben. Es zeichnet sich durch skalierbare Modulationsfaktoren wie Pose, Körperform und breite Anwendbarkeit aus, die von Anime bis hin zu Bildern aus der Wildnis reichen. Die Leistung von OutfitAnyone in verschiedenen Szenarien unterstreicht seine Nützlichkeit und Einsatzbereitschaft für den Einsatz in der realen Welt. Für weitere Details und animierte Ergebnisse besuchen Sie bitte https://humanaigc.github.io/outfit-anyone/.
English
Virtual Try-On (VTON) has become a transformative technology, empowering users to experiment with fashion without ever having to physically try on clothing. However, existing methods often struggle with generating high-fidelity and detail-consistent results. While diffusion models, such as Stable Diffusion series, have shown their capability in creating high-quality and photorealistic images, they encounter formidable challenges in conditional generation scenarios like VTON. Specifically, these models struggle to maintain a balance between control and consistency when generating images for virtual clothing trials. OutfitAnyone addresses these limitations by leveraging a two-stream conditional diffusion model, enabling it to adeptly handle garment deformation for more lifelike results. It distinguishes itself with scalability-modulating factors such as pose, body shape and broad applicability, extending from anime to in-the-wild images. OutfitAnyone's performance in diverse scenarios underscores its utility and readiness for real-world deployment. For more details and animated results, please see https://humanaigc.github.io/outfit-anyone/.
PDF305November 28, 2024