AlphaApollo: Orchestrierung von Foundation Models und professionellen Werkzeugen zu einem sich selbst weiterentwickelnden System für tiefgreifendes agentenbasiertes Denken
AlphaApollo: Orchestrating Foundation Models and Professional Tools into a Self-Evolving System for Deep Agentic Reasoning
October 5, 2025
papers.authors: Zhanke Zhou, Chentao Cao, Xiao Feng, Xuan Li, Zongze Li, Xiangyu Lu, Jiangchao Yao, Weikai Huang, Linrui Xu, Tian Cheng, Guanyu Jiang, Yiming Zheng, Brando Miranda, Tongliang Liu, Sanmi Koyejo, Masashi Sugiyama, Bo Han
cs.AI
papers.abstract
Wir präsentieren AlphaApollo, ein sich selbst weiterentwickelndes agentenbasiertes Reasoning-System, das darauf abzielt, zwei Engpässe im Reasoning von Foundation-Modellen (FMs) zu adressieren: die begrenzte modellintrinsische Kapazität und unzuverlässige Iterationen zur Testzeit. AlphaApollo orchestriert mehrere Modelle mit professionellen Werkzeugen, um gezieltes, überprüfbares Reasoning zu ermöglichen. Es kombiniert (i) ein Berechnungswerkzeug (Python mit numerischen und symbolischen Bibliotheken) und (ii) ein Retrieval-Werkzeug (aufgabenrelevante externe Informationen), um exakte Berechnungen durchzuführen und Entscheidungen zu fundieren. Das System unterstützt zudem die mehrstufige, multimodale Lösungsentwicklung über eine gemeinsame Zustandskarte, die Kandidaten, ausführbare Prüfungen und Feedback für iterative Verbesserungen festhält. In Evaluierungen auf AIME 2024/2025 über mehrere Modelle hinweg erzielt AlphaApollo konsistente Verbesserungen: +5,15 % Average@32 und +23,34 % Pass@32 für Qwen2.5-14B-Instruct sowie +8,91 % Average@32 und +26,67 % Pass@32 für Llama-3.3-70B-Instruct. Die Analyse der Werkzeugnutzung zeigt, dass mehr als 80 % der Werkzeugaufrufe erfolgreich ausgeführt werden, wobei die Nicht-Werkzeug-Baselines konsequent übertroffen werden, wodurch die Fähigkeitsgrenze von FMs angehoben wird. Weitere empirische Ergebnisse und Implementierungsdetails werden unter https://github.com/tmlr-group/AlphaApollo aktualisiert.
English
We present AlphaApollo, a self-evolving agentic reasoning system that aims to
address two bottlenecks in foundation model (FM) reasoning-limited
model-intrinsic capacity and unreliable test-time iteration. AlphaApollo
orchestrates multiple models with professional tools to enable deliberate,
verifiable reasoning. It couples (i) a computation tool (Python with numerical
and symbolic libraries) and (ii) a retrieval tool (task-relevant external
information) to execute exact calculations and ground decisions. The system
further supports multi-round, multi-model solution evolution via a shared state
map that records candidates, executable checks, and feedback for iterative
refinement. In evaluations on AIME 2024/2025 across multiple models,
AlphaApollo delivers consistent gains: +5.15% Average@32 and +23.34% Pass@32
for Qwen2.5-14B-Instruct, and +8.91% Average@32 with +26.67% Pass@32 for
Llama-3.3-70B-Instruct. Tool-use analysis shows that more than 80% of tool
calls are successfully executed, with consistent outperformance of non-tool
baselines, thereby lifting the capability ceiling of FMs. More empirical
results and implementation details will be updated at
https://github.com/tmlr-group/AlphaApollo.