Дистилляция карт потоков без использования данных
Flow Map Distillation Without Data
November 24, 2025
Авторы: Shangyuan Tong, Nanye Ma, Saining Xie, Tommi Jaakkola
cs.AI
Аннотация
Современные модели потоков демонстрируют выдающееся качество, но требуют медленного, итеративного сэмплирования. Для ускорения этого процесса из предобученных моделей-учителей может быть извлечена карта потоков — процедура, которая традиционно требует сэмплирования из внешнего набора данных. Мы утверждаем, что эта зависимость от данных влечет за собой фундаментальный риск *Несоответствия Учителя и Данных*, поскольку статический набор данных может давать неполное или даже несовместимое представление о полных генеративных возможностях модели-учителя. Это заставляет нас задаться вопросом, является ли такая зависимость от данных действительно необходимой для успешного извлечения карты потоков. В данной работе мы исследуем альтернативу, не требующую данных, которая сэмплирует только из априорного распределения — распределения, которому учитель гарантированно следует по своей конструкции, — тем самым полностью устраняя риск несоответствия. Чтобы продемонстрировать практическую осуществимость этого подхода, мы представляем принципиальную框架, которая учится предсказывать траекторию сэмплирования учителя, одновременно активно корректируя собственные накапливающиеся ошибки для обеспечения высокой точности. Наш метод превосходит все аналоги, основанные на данных, и устанавливает новое состояние искусства с существенным отрывом. В частности, при извлечении из SiT-XL/2+REPA наш метод достигает впечатляющего FID 1.45 на ImageNet 256x256 и 1.49 на ImageNet 512x512, в обоих случаях всего за 1 шаг сэмплирования. Мы надеемся, что наша работа заложит основы более надежной парадигмы для ускорения генеративных моделей и будет способствовать более широкому внедрению извлечения карты потоков без использования данных.
English
State-of-the-art flow models achieve remarkable quality but require slow, iterative sampling. To accelerate this, flow maps can be distilled from pre-trained teachers, a procedure that conventionally requires sampling from an external dataset. We argue that this data-dependency introduces a fundamental risk of Teacher-Data Mismatch, as a static dataset may provide an incomplete or even misaligned representation of the teacher's full generative capabilities. This leads us to question whether this reliance on data is truly necessary for successful flow map distillation. In this work, we explore a data-free alternative that samples only from the prior distribution, a distribution the teacher is guaranteed to follow by construction, thereby circumventing the mismatch risk entirely. To demonstrate the practical viability of this philosophy, we introduce a principled framework that learns to predict the teacher's sampling path while actively correcting for its own compounding errors to ensure high fidelity. Our approach surpasses all data-based counterparts and establishes a new state-of-the-art by a significant margin. Specifically, distilling from SiT-XL/2+REPA, our method reaches an impressive FID of 1.45 on ImageNet 256x256, and 1.49 on ImageNet 512x512, both with only 1 sampling step. We hope our work establishes a more robust paradigm for accelerating generative models and motivates the broader adoption of flow map distillation without data.