ChatPaper.aiChatPaper

Pangu-Agent: Un Agente Generalista Ajustable con Razonamiento Estructurado

Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning

December 22, 2023
Autores: Filippos Christianos, Georgios Papoudakis, Matthieu Zimmer, Thomas Coste, Zhihao Wu, Jingxuan Chen, Khyati Khandelwal, James Doran, Xidong Feng, Jiacheng Liu, Zheng Xiong, Yicheng Luo, Jianye Hao, Kun Shao, Haitham Bou-Ammar, Jun Wang
cs.AI

Resumen

Un método clave para crear agentes de Inteligencia Artificial (IA) es el Aprendizaje por Refuerzo (RL, por sus siglas en inglés). Sin embargo, construir una política de RL independiente que mapee la percepción directamente a la acción enfrenta problemas severos, siendo los principales la falta de generalidad en múltiples tareas y la necesidad de una gran cantidad de datos de entrenamiento. La causa principal es que no puede integrar eficazmente información previa en el ciclo de percepción-acción al diseñar la política. Los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) surgieron como una forma fundamental de incorporar conocimiento interdominio en los agentes de IA, pero carecen de aprendizaje y adaptación cruciales hacia problemas de decisión específicos. Este artículo presenta un marco de trabajo general para integrar y aprender razonamiento estructurado en las políticas de los agentes de IA. Nuestra metodología está motivada por la modularidad encontrada en el cerebro humano. El marco utiliza la construcción de funciones intrínsecas y extrínsecas para añadir comprensiones previas de estructuras de razonamiento. También proporciona la capacidad adaptativa para aprender modelos dentro de cada módulo o función, en consonancia con la estructura modular de los procesos cognitivos. Describimos el marco en profundidad y lo comparamos con otras arquitecturas de IA y marcos existentes. El artículo explora aplicaciones prácticas, cubriendo experimentos que muestran la efectividad de nuestro método. Nuestros resultados indican que los agentes de IA desempeñan y se adaptan mucho mejor cuando se incorporan razonamiento organizado y conocimiento previo. Esto abre la puerta a sistemas de agentes de IA más resilientes y generales.
English
A key method for creating Artificial Intelligence (AI) agents is Reinforcement Learning (RL). However, constructing a standalone RL policy that maps perception to action directly encounters severe problems, chief among them being its lack of generality across multiple tasks and the need for a large amount of training data. The leading cause is that it cannot effectively integrate prior information into the perception-action cycle when devising the policy. Large language models (LLMs) emerged as a fundamental way to incorporate cross-domain knowledge into AI agents but lack crucial learning and adaptation toward specific decision problems. This paper presents a general framework model for integrating and learning structured reasoning into AI agents' policies. Our methodology is motivated by the modularity found in the human brain. The framework utilises the construction of intrinsic and extrinsic functions to add previous understandings of reasoning structures. It also provides the adaptive ability to learn models inside every module or function, consistent with the modular structure of cognitive processes. We describe the framework in-depth and compare it with other AI pipelines and existing frameworks. The paper explores practical applications, covering experiments that show the effectiveness of our method. Our results indicate that AI agents perform and adapt far better when organised reasoning and prior knowledge are embedded. This opens the door to more resilient and general AI agent systems.
PDF154December 15, 2024