ChatPaper.aiChatPaper

MLLM como Recuperador: Aprendizaje Interactivo de Recuperación Multimodal para Agentes Encarnados

MLLM as Retriever: Interactively Learning Multimodal Retrieval for Embodied Agents

October 4, 2024
Autores: Junpeng Yue, Xinru Xu, Börje F. Karlsson, Zongqing Lu
cs.AI

Resumen

Los agentes MLLM demuestran potencial para tareas corporales complejas al recuperar datos de trayectorias multimodales relevantes para la tarea. Sin embargo, los métodos actuales de recuperación se centran principalmente en similitudes a nivel superficial de pistas textuales o visuales en las trayectorias, descuidando su efectividad para la tarea específica en cuestión. Para abordar este problema, proponemos un método novedoso, MLLM como Recuperador (MART), que mejora el rendimiento de los agentes corporales al utilizar datos de interacción para ajustar finamente un recuperador MLLM basado en el aprendizaje de preferencias, de modo que el recuperador considere completamente la efectividad de las trayectorias y las priorice para tareas no vistas. También introducimos la Abstracción de Trayectoria, un mecanismo que aprovecha las capacidades de resumen de los MLLM para representar trayectorias con menos tokens mientras se preserva la información clave, lo que permite a los agentes comprender mejor hitos en la trayectoria. Los resultados experimentales en varios entornos demuestran que nuestro método mejora significativamente las tasas de éxito en tareas en escenas no vistas en comparación con los métodos de referencia. Este trabajo presenta un nuevo paradigma para la recuperación multimodal en agentes corporales, ajustando finamente un MLLM de propósito general como el recuperador para evaluar la efectividad de la trayectoria. Se publicarán todos los conjuntos de tareas de referencia y modificaciones de código del simulador para espacios de acción y observación.
English
MLLM agents demonstrate potential for complex embodied tasks by retrieving multimodal task-relevant trajectory data. However, current retrieval methods primarily focus on surface-level similarities of textual or visual cues in trajectories, neglecting their effectiveness for the specific task at hand. To address this issue, we propose a novel method, MLLM as ReTriever (MART), which enhances the performance of embodied agents by utilizing interaction data to fine-tune an MLLM retriever based on preference learning, such that the retriever fully considers the effectiveness of trajectories and prioritize them for unseen tasks. We also introduce Trajectory Abstraction, a mechanism that leverages MLLMs' summarization capabilities to represent trajectories with fewer tokens while preserving key information, enabling agents to better comprehend milestones in the trajectory. Experimental results across various environments demonstrate our method significantly improves task success rates in unseen scenes compared to baseline methods. This work presents a new paradigm for multimodal retrieval in embodied agents, by fine-tuning a general-purpose MLLM as the retriever to assess trajectory effectiveness. All benchmark task sets and simulator code modifications for action and observation spaces will be released.

Summary

AI-Generated Summary

PDF372November 16, 2024