ChatPaper.aiChatPaper

AlphaApollo: Orquestrando Modelos Fundamentais e Ferramentas Profissionais em um Sistema Autoevolutivo para Raciocínio Agente Profundo

AlphaApollo: Orchestrating Foundation Models and Professional Tools into a Self-Evolving System for Deep Agentic Reasoning

October 5, 2025
Autores: Zhanke Zhou, Chentao Cao, Xiao Feng, Xuan Li, Zongze Li, Xiangyu Lu, Jiangchao Yao, Weikai Huang, Linrui Xu, Tian Cheng, Guanyu Jiang, Yiming Zheng, Brando Miranda, Tongliang Liu, Sanmi Koyejo, Masashi Sugiyama, Bo Han
cs.AI

Resumo

Apresentamos o AlphaApollo, um sistema de raciocínio agentico autoevolutivo que visa abordar dois gargalos no raciocínio de modelos de base (FM): capacidade intrínseca limitada do modelo e iteração não confiável em tempo de teste. O AlphaApollo orquestra múltiplos modelos com ferramentas profissionais para permitir um raciocínio deliberado e verificável. Ele acopla (i) uma ferramenta de computação (Python com bibliotecas numéricas e simbólicas) e (ii) uma ferramenta de recuperação (informação externa relevante para a tarefa) para executar cálculos exatos e fundamentar decisões. O sistema ainda suporta a evolução de soluções em múltiplas rodadas e com múltiplos modelos por meio de um mapa de estado compartilhado que registra candidatos, verificações executáveis e feedback para refinamento iterativo. Nas avaliações do AIME 2024/2025 em vários modelos, o AlphaApollo apresenta ganhos consistentes: +5,15% Average@32 e +23,34% Pass@32 para o Qwen2.5-14B-Instruct, e +8,91% Average@32 com +26,67% Pass@32 para o Llama-3.3-70B-Instruct. A análise do uso de ferramentas mostra que mais de 80% das chamadas de ferramentas são executadas com sucesso, com desempenho consistentemente superior às linhas de base sem ferramentas, elevando assim o limite de capacidade dos FMs. Mais resultados empíricos e detalhes de implementação serão atualizados em https://github.com/tmlr-group/AlphaApollo.
English
We present AlphaApollo, a self-evolving agentic reasoning system that aims to address two bottlenecks in foundation model (FM) reasoning-limited model-intrinsic capacity and unreliable test-time iteration. AlphaApollo orchestrates multiple models with professional tools to enable deliberate, verifiable reasoning. It couples (i) a computation tool (Python with numerical and symbolic libraries) and (ii) a retrieval tool (task-relevant external information) to execute exact calculations and ground decisions. The system further supports multi-round, multi-model solution evolution via a shared state map that records candidates, executable checks, and feedback for iterative refinement. In evaluations on AIME 2024/2025 across multiple models, AlphaApollo delivers consistent gains: +5.15% Average@32 and +23.34% Pass@32 for Qwen2.5-14B-Instruct, and +8.91% Average@32 with +26.67% Pass@32 for Llama-3.3-70B-Instruct. Tool-use analysis shows that more than 80% of tool calls are successfully executed, with consistent outperformance of non-tool baselines, thereby lifting the capability ceiling of FMs. More empirical results and implementation details will be updated at https://github.com/tmlr-group/AlphaApollo.
PDF42October 9, 2025