ChatPaper.aiChatPaper

Controlando LLMs Multimodais por meio de Decodagem Orientada por Recompensa

Controlling Multimodal LLMs via Reward-guided Decoding

August 15, 2025
Autores: Oscar Mañas, Pierluca D'Oro, Koustuv Sinha, Adriana Romero-Soriano, Michal Drozdzal, Aishwarya Agrawal
cs.AI

Resumo

À medida que os Modelos de Linguagem Multimodais de Grande Escala (MLLMs) ganham ampla aplicabilidade, torna-se cada vez mais desejável adaptá-los para diversas necessidades dos usuários. Neste artigo, estudamos a adaptação de MLLMs por meio de decodificação controlada. Para isso, introduzimos o primeiro método para decodificação guiada por recompensa de MLLMs e demonstramos sua aplicação na melhoria de sua fundamentação visual. Nosso método envolve a construção de modelos de recompensa para fundamentação visual e seu uso para guiar o processo de decodificação do MLLM. Concretamente, construímos dois modelos de recompensa separados para controlar independentemente o grau de precisão e recall de objetos na saída do modelo. Nossa abordagem permite a controlabilidade em tempo real do processo de inferência de um MLLM de duas maneiras: primeiro, ao dar controle sobre a importância relativa de cada função de recompensa durante a decodificação, permitindo que o usuário troque dinamicamente precisão por recall de objetos em tarefas de legendagem de imagens; segundo, ao dar controle sobre a amplitude da busca durante a decodificação, permitindo que o usuário controle a relação entre a quantidade de computação em tempo de teste e o grau de fundamentação visual. Avaliamos nosso método em benchmarks padrão de alucinação de objetos, mostrando que ele oferece uma controlabilidade significativa sobre a inferência de MLLMs, ao mesmo tempo em que supera consistentemente os métodos existentes de mitigação de alucinações.
English
As Multimodal Large Language Models (MLLMs) gain widespread applicability, it is becoming increasingly desirable to adapt them for diverse user needs. In this paper, we study the adaptation of MLLMs through controlled decoding. To achieve this, we introduce the first method for reward-guided decoding of MLLMs and demonstrate its application in improving their visual grounding. Our method involves building reward models for visual grounding and using them to guide the MLLM's decoding process. Concretely, we build two separate reward models to independently control the degree of object precision and recall in the model's output. Our approach enables on-the-fly controllability of an MLLM's inference process in two ways: first, by giving control over the relative importance of each reward function during decoding, allowing a user to dynamically trade off object precision for recall in image captioning tasks; second, by giving control over the breadth of the search during decoding, allowing the user to control the trade-off between the amount of test-time compute and the degree of visual grounding. We evaluate our method on standard object hallucination benchmarks, showing that it provides significant controllability over MLLM inference, while consistently outperforming existing hallucination mitigation methods.
PDF72August 18, 2025