ChatPaper.aiChatPaper

Ragionamento Sinergico Conoscenza Interna-Esterna Rinforzata per un Agente di Ricerca Adattivo Efficiente

Reinforced Internal-External Knowledge Synergistic Reasoning for Efficient Adaptive Search Agent

May 12, 2025
Autori: Ziyang Huang, Xiaowei Yuan, Yiming Ju, Jun Zhao, Kang Liu
cs.AI

Abstract

La generazione potenziata dal recupero (RAG) è una strategia comune per ridurre le allucinazioni nei Modelli Linguistici di Grande Dimensione (LLM). Sebbene l'apprendimento per rinforzo (RL) possa consentire ai LLM di agire come agenti di ricerca attivando le capacità di recupero, quelli esistenti spesso sottoutilizzano la loro conoscenza interna. Ciò può portare a recuperi ridondanti, potenziali conflitti dannosi di conoscenza e un aumento della latenza di inferenza. Per affrontare queste limitazioni, è urgente la necessità di un agente di ricerca efficiente e adattivo in grado di discernere il momento ottimale per il recupero e di integrare sinergicamente la conoscenza parametrica (interna) e quella recuperata (esterna). Questo articolo introduce l'agente di ragionamento sinergico con conoscenza interna-esterna rinforzata (IKEA), che potrebbe identificare il proprio confine di conoscenza e dare priorità all'utilizzo della conoscenza interna, ricorrendo alla ricerca esterna solo quando la conoscenza interna è ritenuta insufficiente. Ciò è ottenuto utilizzando una nuova funzione di ricompensa consapevole del confine di conoscenza e un dataset di addestramento consapevole del confine di conoscenza. Questi sono progettati per un RL orientato alla sinergia tra conoscenza interna ed esterna, incentivando il modello a fornire risposte accurate, minimizzare i recuperi non necessari e incoraggiare ricerche esterne appropriate quando la propria conoscenza è carente. Le valutazioni su più compiti di ragionamento basati sulla conoscenza dimostrano che IKEA supera significativamente i metodi di base, riduce notevolmente la frequenza di recupero e mostra robuste capacità di generalizzazione.
English
Retrieval-augmented generation (RAG) is a common strategy to reduce hallucinations in Large Language Models (LLMs). While reinforcement learning (RL) can enable LLMs to act as search agents by activating retrieval capabilities, existing ones often underutilize their internal knowledge. This can lead to redundant retrievals, potential harmful knowledge conflicts, and increased inference latency. To address these limitations, an efficient and adaptive search agent capable of discerning optimal retrieval timing and synergistically integrating parametric (internal) and retrieved (external) knowledge is in urgent need. This paper introduces the Reinforced Internal-External Knowledge Synergistic Reasoning Agent (IKEA), which could indentify its own knowledge boundary and prioritize the utilization of internal knowledge, resorting to external search only when internal knowledge is deemed insufficient. This is achieved using a novel knowledge-boundary aware reward function and a knowledge-boundary aware training dataset. These are designed for internal-external knowledge synergy oriented RL, incentivizing the model to deliver accurate answers, minimize unnecessary retrievals, and encourage appropriate external searches when its own knowledge is lacking. Evaluations across multiple knowledge reasoning tasks demonstrate that IKEA significantly outperforms baseline methods, reduces retrieval frequency significantly, and exhibits robust generalization capabilities.
PDF112May 13, 2025