ChatPaper.aiChatPaper

Difusão Discreta Multimodal Unificada

Unified Multimodal Discrete Diffusion

March 26, 2025
Autores: Alexander Swerdlow, Mihir Prabhudesai, Siddharth Gandhi, Deepak Pathak, Katerina Fragkiadaki
cs.AI

Resumo

Modelos generativos multimodais que podem compreender e gerar conteúdo em múltiplas modalidades são predominantemente baseados em abordagens autoregressivas (AR), que processam tokens sequencialmente da esquerda para a direita ou de cima para baixo. Esses modelos lidam conjuntamente com imagens, texto, vídeo e áudio para diversas tarefas, como legendagem de imagens, resposta a perguntas e geração de imagens. Neste trabalho, exploramos modelos de difusão discreta como uma formulação generativa unificada no domínio conjunto de texto e imagem, construindo sobre seu sucesso recente na geração de texto. Modelos de difusão discreta oferecem várias vantagens em relação aos modelos AR, incluindo maior controle sobre a qualidade versus diversidade das amostras geradas, a capacidade de realizar preenchimento multimodal conjunto (em ambos os domínios de texto e imagem) e maior controlabilidade na geração por meio de orientação. Aproveitando esses benefícios, apresentamos o primeiro Modelo de Difusão Discreta Multimodal Unificado (UniDisc), capaz de compreender e gerar conjuntamente texto e imagens para uma variedade de tarefas subsequentes. Comparamos o UniDisc a modelos AR multimodais, realizando uma análise de escalabilidade e demonstrando que o UniDisc supera esses modelos em termos de desempenho e computação no tempo de inferência, além de maior controlabilidade, editabilidade, preenchimento e flexibilidade na troca entre tempo de inferência e qualidade de geração. Código e visualizações adicionais estão disponíveis em https://unidisc.github.io.
English
Multimodal generative models that can understand and generate across multiple modalities are dominated by autoregressive (AR) approaches, which process tokens sequentially from left to right, or top to bottom. These models jointly handle images, text, video, and audio for various tasks such as image captioning, question answering, and image generation. In this work, we explore discrete diffusion models as a unified generative formulation in the joint text and image domain, building upon their recent success in text generation. Discrete diffusion models offer several advantages over AR models, including improved control over quality versus diversity of generated samples, the ability to perform joint multimodal inpainting (across both text and image domains), and greater controllability in generation through guidance. Leveraging these benefits, we present the first Unified Multimodal Discrete Diffusion (UniDisc) model which is capable of jointly understanding and generating text and images for a variety of downstream tasks. We compare UniDisc to multimodal AR models, performing a scaling analysis and demonstrating that UniDisc outperforms them in terms of both performance and inference-time compute, enhanced controllability, editability, inpainting, and flexible trade-off between inference time and generation quality. Code and additional visualizations are available at https://unidisc.github.io.

Summary

AI-Generated Summary

PDF92March 28, 2025