ChatPaper.aiChatPaper

HiperOjos: Aprendizaje por Refuerzo Eficiente de Grano Dual para Agentes de Búsqueda Multimodal en Paralelo

HyperEyes: Dual-Grained Efficiency-Aware Reinforcement Learning for Parallel Multimodal Search Agents

May 8, 2026
Autores: Guankai Li, Jiabin Chen, Yi Xu, Xichen Zhang, Yuan Lu
cs.AI

Resumen

Los agentes de búsqueda multimodal existentes procesan las entidades objetivo de forma secuencial, emitiendo una llamada a herramienta por entidad y acumulando rondas de interacción redundantes cuando una consulta se descompone en subrecuperaciones independientes. Argumentamos que los agentes multimodales efectivos deberían buscar de manera más amplia en lugar de más prolongada: despachando múltiples consultas fundamentadas concurrentemente dentro de una misma ronda. Con este fin, presentamos HyperEyes, un agente de búsqueda multimodal paralelo que fusiona el anclaje visual y la recuperación en una única acción atómica, permitiendo búsquedas concurrentes en múltiples entidades mientras trata la eficiencia de inferencia como un objetivo de entrenamiento prioritario. HyperEyes se entrena en dos etapas. Para la supervisión inicial, desarrollamos un Pipeline de Síntesis de Datos Compatible con Paralelismo que abarca consultas visuales multi-entidad y textuales multi-restricción, curando trayectorias orientadas a la eficiencia mediante Muestreo por Rechazo Progresivo. Sobre esta base, nuestra contribución principal, un marco de Aprendizaje por Refuerzo con Conciencia de Eficiencia de Doble Granularidad, opera en dos niveles. A nivel macro, proponemos TRACE (Eficiencia de Coste Adaptativo con Referencia al Uso de Herramientas), una recompensa a nivel de trayectoria cuya referencia se ajusta monótonamente durante el entrenamiento para suprimir llamadas a herramientas superfluas sin restringir búsquedas genuinas de múltiples saltos. A nivel micro, adaptamos la Destilación en Política para inyectar señales correctivas densas a nivel de token desde un profesor externo en rollouts fallidos, mitigando la deficiencia en asignación de crédito de las recompensas dispersas basadas en resultados. Dado que los benchmarks existentes evalúan la precisión como única métrica, omitiendo el coste de inferencia, introducimos IMEB, un benchmark curado manualmente con 300 instancias que evalúa conjuntamente la capacidad de búsqueda y la eficiencia. En seis benchmarks, HyperEyes-30B supera al agente de código abierto comparable más fuerte en un 9.9% de precisión con 5.3 veces menos rondas de llamadas a herramientas en promedio.
English
Existing multimodal search agents process target entities sequentially, issuing one tool call per entity and accumulating redundant interaction rounds whenever a query decomposes into independent sub-retrievals. We argue that effective multimodal agents should search wider rather than longer: dispatching multiple grounded queries concurrently within a round. To this end, we present HyperEyes, a parallel multimodal search agent that fuses visual grounding and retrieval into a single atomic action, enabling concurrent search across multiple entities while treating inference efficiency as a first-class training objective. HyperEyes is trained in two stages. For cold-start supervision, we develop a Parallel-Amenable Data Synthesis Pipeline covering visual multi-entity and textual multi-constraint queries, curating efficiency-oriented trajectories via Progressive Rejection Sampling. Building on this, our central contribution, a Dual-Grained Efficiency-Aware Reinforcement Learning framework, operates at two levels. At the macro level, we propose TRACE (Tool-use Reference-Adaptive Cost Efficiency), a trajectory-level reward whose reference is monotonically tightened during training to suppress superfluous tool calls without restricting genuine multi-hop search. At the micro level, we adapt On-Policy Distillation to inject dense token-level corrective signals from an external teacher on failed rollouts, mitigating the credit-assignment deficiency of sparse outcome rewards. Since existing benchmarks evaluate accuracy as the sole metric, omitting inference cost, we introduce IMEB, a human-curated benchmark of 300 instances that jointly evaluates search capability and efficiency. Across six benchmarks, HyperEyes-30B surpasses the strongest comparable open-source agent by 9.9% in accuracy with 5.3x fewer tool-call rounds on average.
PDF571May 12, 2026