ChatPaper.aiChatPaper

Bifrost-1: Соединение мультимодальных LLM и диффузионных моделей с использованием латентных представлений CLIP на уровне патчей

Bifrost-1: Bridging Multimodal LLMs and Diffusion Models with Patch-level CLIP Latents

August 8, 2025
Авторы: Han Lin, Jaemin Cho, Amir Zadeh, Chuan Li, Mohit Bansal
cs.AI

Аннотация

Растет интерес к интеграции возможностей высококачественного визуального синтеза в крупные языковые модели (LLM) без ущерба для их мощных способностей к рассуждению. Существующие методы, которые напрямую обучают LLM или связывают LLM с диффузионными моделями, обычно сталкиваются с высокой стоимостью обучения, поскольку базовые LLM не видели представлений изображений на этапе предварительного обучения. Мы представляем Bifrost-1 — унифицированную структуру, которая связывает предварительно обученные мультимодальные LLM (MLLM) и диффузионные модели, используя патч-уровневые CLIP-эмбеддинги изображений в качестве латентных переменных, которые изначально согласованы с CLIP-визуальным кодировщиком MLLM. Эти патч-уровневые эмбеддинги изображений интегрируются в диффузионную модель с помощью легковесной адаптации ее ControlNet. Для сохранения исходных мультимодальных способностей к рассуждению MLLM мы оснащаем MLLM ветвью визуальной генерации, инициализированной из исходных параметров MLLM при прогнозировании патч-уровневых эмбеддингов изображений. Благодаря бесшовной интеграции предварительно обученных MLLM и диффузионных моделей с патч-уровневыми CLIP-латентными переменными, наша структура позволяет осуществлять высококачественное управляемое генерацию изображений с высокой эффективностью обучения. Наши эксперименты демонстрируют, что Bifrost-1 достигает сопоставимой или лучшей производительности по сравнению с предыдущими методами с точки зрения визуальной точности и мультимодального понимания, при значительно меньших вычислительных затратах во время обучения. Мы также предоставляем всесторонние исследования эффективности наших проектных решений.
English
There is growing interest in integrating high-fidelity visual synthesis capabilities into large language models (LLMs) without compromising their strong reasoning capabilities. Existing methods that directly train LLMs or bridge LLMs and diffusion models usually suffer from costly training since the backbone LLMs have not seen image representations during pretraining. We present Bifrost-1, a unified framework that bridges pretrained multimodal LLMs (MLLMs) and diffusion models using patch-level CLIP image embeddings as latent variables, which are natively aligned with the MLLM's CLIP visual encoder. These patch-level image embeddings are integrated into the diffusion model with a lightweight adaptation of its ControlNet. To retain the original multimodal reasoning capabilities of MLLMs, we equip the MLLM with a visual generation branch initialized from the original MLLM parameters when predicting the patch-level image embeddings. By seamlessly integrating pretrained MLLMs and diffusion models with patch-level CLIP latents, our framework enables high-fidelity controllable image generation with significant training efficiency. Our experiments demonstrate that Bifrost-1 achieves comparable or better performance than previous methods in terms of visual fidelity and multimodal understanding, with substantially lower compute during training. We also provide comprehensive ablation studies showing the effectiveness of our design choices.
PDF62August 12, 2025