ChatPaper.aiChatPaper

Визуальная генерация без руководства

Visual Generation Without Guidance

January 26, 2025
Авторы: Huayu Chen, Kai Jiang, Kaiwen Zheng, Jianfei Chen, Hang Su, Jun Zhu
cs.AI

Аннотация

Метод руководства без классификатора (CFG) стал стандартной техникой в различных визуальных генеративных моделях, однако требует вывода из условных и безусловных моделей во время выборки. Мы предлагаем создавать визуальные модели, свободные от управляемой выборки. Разработанный алгоритм, Обучение без руководства (GFT), достигает производительности CFG, сокращая выборку до одной модели и уменьшая вычислительные затраты вдвое. В отличие от предыдущих подходов на основе дистилляции, которые зависели от предварительно обученных сетей CFG, GFT позволяет обучаться напрямую с нуля. Реализация GFT проста в осуществлении. Он сохраняет ту же цель максимального правдоподобия, что и CFG, и отличается в основном параметризацией условных моделей. Для реализации GFT требуются лишь минимальные изменения в существующем коде, так как большинство дизайнерских решений и гиперпараметры прямо наследуются от CFG. Наши обширные эксперименты с пятью различными визуальными моделями демонстрируют эффективность и универсальность GFT. В различных областях диффузии, авторегрессии и моделирования маскировки GFT последовательно достигает сравнимых или даже более низких оценок FID, сохраняя аналогичный баланс между разнообразием и правдоподобием по сравнению с базовыми значениями CFG, при этом не требуя руководства. Код будет доступен по ссылке https://github.com/thu-ml/GFT.
English
Classifier-Free Guidance (CFG) has been a default technique in various visual generative models, yet it requires inference from both conditional and unconditional models during sampling. We propose to build visual models that are free from guided sampling. The resulting algorithm, Guidance-Free Training (GFT), matches the performance of CFG while reducing sampling to a single model, halving the computational cost. Unlike previous distillation-based approaches that rely on pretrained CFG networks, GFT enables training directly from scratch. GFT is simple to implement. It retains the same maximum likelihood objective as CFG and differs mainly in the parameterization of conditional models. Implementing GFT requires only minimal modifications to existing codebases, as most design choices and hyperparameters are directly inherited from CFG. Our extensive experiments across five distinct visual models demonstrate the effectiveness and versatility of GFT. Across domains of diffusion, autoregressive, and masked-prediction modeling, GFT consistently achieves comparable or even lower FID scores, with similar diversity-fidelity trade-offs compared with CFG baselines, all while being guidance-free. Code will be available at https://github.com/thu-ml/GFT.

Summary

AI-Generated Summary

PDF83January 28, 2025