ChatPaper.aiChatPaper

Any2AnyTryon: Sfruttare i Posizionamenti Adattivi per Compiti Versatili di Abbigliamento Virtuale

Any2AnyTryon: Leveraging Adaptive Position Embeddings for Versatile Virtual Clothing Tasks

January 27, 2025
Autori: Hailong Guo, Bohan Zeng, Yiren Song, Wentao Zhang, Chuang Zhang, Jiaming Liu
cs.AI

Abstract

Il virtual try-on basato sull'immagine (VTON) mira a generare un risultato di prova virtuale trasferendo un capo di abbigliamento di input su un'immagine di una persona target. Tuttavia, la scarsità di dati abbinati capo-modello rende difficile per i metodi esistenti raggiungere un'elevata generalizzazione e qualità in VTON. Inoltre, limita la capacità di generare prove senza maschera. Per affrontare il problema della scarsità di dati, approcci come Stable Garment e MMTryon utilizzano una strategia di dati sintetici, aumentando efficacemente la quantità di dati abbinati sul lato del modello. Tuttavia, i metodi esistenti sono tipicamente limitati nell'esecuzione di specifiche attività di prova e mancano di facilità d'uso. Per migliorare la generalizzazione e la controllabilità della generazione di VTON, proponiamo Any2AnyTryon, che può generare risultati di prova in base a diverse istruzioni testuali e immagini di capi di abbigliamento del modello per soddisfare varie esigenze, eliminando la dipendenza da maschere, pose o altre condizioni. In particolare, costruiamo prima il dataset di prova virtuale LAION-Garment, il più grande dataset di prova di abbigliamento open-source conosciuto. Successivamente, introduciamo l'incorporamento di posizione adattivo, che consente al modello di generare immagini di modelli vestiti o immagini di capi soddisfacenti basate su immagini di input di diverse dimensioni e categorie, migliorando significativamente la generalizzazione e la controllabilità della generazione di VTON. Nei nostri esperimenti, dimostriamo l'efficacia del nostro Any2AnyTryon e lo confrontiamo con i metodi esistenti. I risultati mostrano che Any2AnyTryon consente una generazione flessibile, controllabile e di alta qualità del virtual try-on basato sull'immagine.
English
Image-based virtual try-on (VTON) aims to generate a virtual try-on result by transferring an input garment onto a target person's image. However, the scarcity of paired garment-model data makes it challenging for existing methods to achieve high generalization and quality in VTON. Also, it limits the ability to generate mask-free try-ons. To tackle the data scarcity problem, approaches such as Stable Garment and MMTryon use a synthetic data strategy, effectively increasing the amount of paired data on the model side. However, existing methods are typically limited to performing specific try-on tasks and lack user-friendliness. To enhance the generalization and controllability of VTON generation, we propose Any2AnyTryon, which can generate try-on results based on different textual instructions and model garment images to meet various needs, eliminating the reliance on masks, poses, or other conditions. Specifically, we first construct the virtual try-on dataset LAION-Garment, the largest known open-source garment try-on dataset. Then, we introduce adaptive position embedding, which enables the model to generate satisfactory outfitted model images or garment images based on input images of different sizes and categories, significantly enhancing the generalization and controllability of VTON generation. In our experiments, we demonstrate the effectiveness of our Any2AnyTryon and compare it with existing methods. The results show that Any2AnyTryon enables flexible, controllable, and high-quality image-based virtual try-on generation.https://logn-2024.github.io/Any2anyTryonProjectPage/

Summary

AI-Generated Summary

PDF163January 31, 2025