ChatPaper.aiChatPaper

MIRO: Pré-treinamento condicionado por Múltiplas Recompensas melhora a qualidade e eficiência de T2I

MIRO: MultI-Reward cOnditioned pretraining improves T2I quality and efficiency

October 29, 2025
Autores: Nicolas Dufour, Lucas Degeorge, Arijit Ghosh, Vicky Kalogeiton, David Picard
cs.AI

Resumo

Os modelos generativos de texto para imagem atuais são treinados em grandes conjuntos de dados não curados para permitir capacidades de geração diversificadas. No entanto, isto não se alinha bem com as preferências dos utilizadores. Recentemente, foram desenvolvidos modelos de recompensa concebidos especificamente para realizar uma seleção *post-hoc* de imagens geradas e alinhá-las com uma recompensa, tipicamente a preferência do utilizador. Este descarte de dados informativos, juntamente com a otimização para uma única recompensa, tende a prejudicar a diversidade, a fidelidade semântica e a eficiência. Em vez deste pós-processamento, propomos condicionar o modelo em múltiplos modelos de recompensa durante o treino, permitindo que o modelo aprenda as preferências dos utilizadores diretamente. Demonstramos que isto não só melhora drasticamente a qualidade visual das imagens geradas, como também acelera significativamente o treino. O nosso método proposto, denominado MIRO, atinge desempenhos de última geração no benchmark composicional GenEval e em métricas de preferência do utilizador (PickAScore, ImageReward, HPSv2).
English
Current text-to-image generative models are trained on large uncurated datasets to enable diverse generation capabilities. However, this does not align well with user preferences. Recently, reward models have been specifically designed to perform post-hoc selection of generated images and align them to a reward, typically user preference. This discarding of informative data together with the optimizing for a single reward tend to harm diversity, semantic fidelity and efficiency. Instead of this post-processing, we propose to condition the model on multiple reward models during training to let the model learn user preferences directly. We show that this not only dramatically improves the visual quality of the generated images but it also significantly speeds up the training. Our proposed method, called MIRO, achieves state-of-the-art performances on the GenEval compositional benchmark and user-preference scores (PickAScore, ImageReward, HPSv2).
PDF163December 2, 2025