ChatPaper.aiChatPaper

AlphaApollo: Het orkestreren van foundation modellen en professionele tools in een zelf-evoluerend systeem voor diepgaand agentisch redeneren

AlphaApollo: Orchestrating Foundation Models and Professional Tools into a Self-Evolving System for Deep Agentic Reasoning

October 5, 2025
Auteurs: Zhanke Zhou, Chentao Cao, Xiao Feng, Xuan Li, Zongze Li, Xiangyu Lu, Jiangchao Yao, Weikai Huang, Linrui Xu, Tian Cheng, Guanyu Jiang, Yiming Zheng, Brando Miranda, Tongliang Liu, Sanmi Koyejo, Masashi Sugiyama, Bo Han
cs.AI

Samenvatting

We presenteren AlphaApollo, een zelf-evoluerend agentisch redeneersysteem dat zich richt op het aanpakken van twee knelpunten in het redeneren van foundation models (FM's): beperkte model-intrinsieke capaciteit en onbetrouwbare iteratie tijdens testtijd. AlphaApollo coördineert meerdere modellen met professionele tools om weloverwogen, verifieerbaar redeneren mogelijk te maken. Het combineert (i) een rekentool (Python met numerieke en symbolische bibliotheken) en (ii) een ophaaltool (taakrelevante externe informatie) om exacte berekeningen uit te voeren en beslissingen te onderbouwen. Het systeem ondersteunt verder de evolutie van oplossingen in meerdere rondes en met meerdere modellen via een gedeelde statuskaart die kandidaten, uitvoerbare controles en feedback voor iteratieve verfijning vastlegt. In evaluaties op AIME 2024/2025 over meerdere modellen behaalt AlphaApollo consistente verbeteringen: +5,15% Gemiddelde@32 en +23,34% Geslaagd@32 voor Qwen2.5-14B-Instruct, en +8,91% Gemiddelde@32 met +26,67% Geslaagd@32 voor Llama-3.3-70B-Instruct. Analyse van toolgebruik laat zien dat meer dan 80% van de toolaanroepen succesvol wordt uitgevoerd, met consistente overprestatie ten opzichte van non-tool-baselines, waardoor het plafond van FM-capaciteiten wordt verhoogd. Meer empirische resultaten en implementatiedetails zullen worden bijgewerkt op https://github.com/tmlr-group/AlphaApollo.
English
We present AlphaApollo, a self-evolving agentic reasoning system that aims to address two bottlenecks in foundation model (FM) reasoning-limited model-intrinsic capacity and unreliable test-time iteration. AlphaApollo orchestrates multiple models with professional tools to enable deliberate, verifiable reasoning. It couples (i) a computation tool (Python with numerical and symbolic libraries) and (ii) a retrieval tool (task-relevant external information) to execute exact calculations and ground decisions. The system further supports multi-round, multi-model solution evolution via a shared state map that records candidates, executable checks, and feedback for iterative refinement. In evaluations on AIME 2024/2025 across multiple models, AlphaApollo delivers consistent gains: +5.15% Average@32 and +23.34% Pass@32 for Qwen2.5-14B-Instruct, and +8.91% Average@32 with +26.67% Pass@32 for Llama-3.3-70B-Instruct. Tool-use analysis shows that more than 80% of tool calls are successfully executed, with consistent outperformance of non-tool baselines, thereby lifting the capability ceiling of FMs. More empirical results and implementation details will be updated at https://github.com/tmlr-group/AlphaApollo.
PDF42October 9, 2025