ChatPaper.aiChatPaper

TryOffDiff: Виртуальная примерка через реконструкцию одежды высокой точности с использованием моделей диффузии

TryOffDiff: Virtual-Try-Off via High-Fidelity Garment Reconstruction using Diffusion Models

November 27, 2024
Авторы: Riza Velioglu, Petra Bevandic, Robin Chan, Barbara Hammer
cs.AI

Аннотация

Этот документ представляет Virtual Try-Off (VTOFF), новую задачу, сосредоточенную на создании стандартизированных изображений одежды из одиночных фотографий одетых людей. В отличие от традиционного Virtual Try-On (VTON), который цифрово одевает моделей, VTOFF нацелен на извлечение канонического изображения одежды, что представляет уникальные вызовы в захвате формы одежды, текстуры и сложных узоров. Эта четко определенная цель делает VTOFF особенно эффективным для оценки точности восстановления в генеративных моделях. Мы представляем TryOffDiff, модель, которая адаптирует Stable Diffusion с визуальным условием на основе SigLIP для обеспечения высокой точности и сохранения деталей. Эксперименты на модифицированном наборе данных VITON-HD показывают, что наш подход превосходит базовые методы на основе передачи позы и виртуальной примерки с меньшим количеством предварительной и последующей обработки. Наш анализ показывает, что традиционные метрики генерации изображений недостаточно оценивают качество восстановления, что заставляет нас полагаться на DISTS для более точной оценки. Наши результаты подчеркивают потенциал VTOFF для улучшения изображений продуктов в приложениях электронной коммерции, продвижения оценки генеративных моделей и вдохновения на будущие работы по восстановлению высокой точности. Демонстрация, код и модели доступны по адресу: https://rizavelioglu.github.io/tryoffdiff/
English
This paper introduces Virtual Try-Off (VTOFF), a novel task focused on generating standardized garment images from single photos of clothed individuals. Unlike traditional Virtual Try-On (VTON), which digitally dresses models, VTOFF aims to extract a canonical garment image, posing unique challenges in capturing garment shape, texture, and intricate patterns. This well-defined target makes VTOFF particularly effective for evaluating reconstruction fidelity in generative models. We present TryOffDiff, a model that adapts Stable Diffusion with SigLIP-based visual conditioning to ensure high fidelity and detail retention. Experiments on a modified VITON-HD dataset show that our approach outperforms baseline methods based on pose transfer and virtual try-on with fewer pre- and post-processing steps. Our analysis reveals that traditional image generation metrics inadequately assess reconstruction quality, prompting us to rely on DISTS for more accurate evaluation. Our results highlight the potential of VTOFF to enhance product imagery in e-commerce applications, advance generative model evaluation, and inspire future work on high-fidelity reconstruction. Demo, code, and models are available at: https://rizavelioglu.github.io/tryoffdiff/

Summary

AI-Generated Summary

PDF297November 29, 2024