Alita: Generalistischer Agent, der skalierbares agentenbasiertes Denken mit minimaler Vordefinition und maximaler Selbstentwicklung ermöglicht
Alita: Generalist Agent Enabling Scalable Agentic Reasoning with Minimal Predefinition and Maximal Self-Evolution
May 26, 2025
Autoren: Jiahao Qiu, Xuan Qi, Tongcheng Zhang, Xinzhe Juan, Jiacheng Guo, Yifu Lu, Yimin Wang, Zixin Yao, Qihan Ren, Xun Jiang, Xing Zhou, Dongrui Liu, Ling Yang, Yue Wu, Kaixuan Huang, Shilong Liu, Hongru Wang, Mengdi Wang
cs.AI
Zusammenfassung
Jüngste Fortschritte bei großen Sprachmodellen (LLMs) haben es Agenten ermöglicht, komplexe, offene Aufgaben autonom auszuführen. Viele bestehende Frameworks sind jedoch stark auf manuell vordefinierte Werkzeuge und Arbeitsabläufe angewiesen, was ihre Anpassungsfähigkeit, Skalierbarkeit und Generalisierung über verschiedene Domänen hinweg behindert. In dieser Arbeit stellen wir Alita vor – einen Generalisten-Agenten, der nach dem Prinzip „Einfachheit ist die höchste Form der Raffinesse“ entwickelt wurde und skalierbares agentisches Denken durch minimale Vordefinition und maximale Selbstentwicklung ermöglicht. Für die minimale Vordefinition ist Alita mit nur einer Komponente zur direkten Problemlösung ausgestattet, was ihn wesentlich einfacher und übersichtlicher macht als bisherige Ansätze, die stark auf handgefertigte, aufwendige Werkzeuge und Arbeitsabläufe angewiesen waren. Dieses klare Design erhöht sein Potenzial, sich auf herausfordernde Fragen zu verallgemeinern, ohne durch Werkzeuge eingeschränkt zu werden. Für die maximale Selbstentwicklung ermöglichen wir die Kreativität von Alita, indem wir eine Reihe von universellen Komponenten bereitstellen, um externe Fähigkeiten autonom zu konstruieren, zu verfeinern und wiederzuverwenden, indem wir aufgabenbezogene Modellkontextprotokolle (MCPs) aus Open Source generieren, was zu skalierbarem agentischem Denken beiträgt. Bemerkenswerterweise erreicht Alita eine Genauigkeit von 75,15 % pass@1 und 87,27 % pass@3, was ihn unter den Generalisten-Agenten an der Spitze platziert, auf dem GAIA-Benchmark-Validierungsdatensatz, sowie 74,00 % und 52,00 % pass@1 auf Mathvista und PathVQA, womit er viele Agentensysteme mit weitaus größerer Komplexität übertrifft. Weitere Details werden unter https://github.com/CharlesQ9/Alita aktualisiert.
English
Recent advances in large language models (LLMs) have enabled agents to
autonomously perform complex, open-ended tasks. However, many existing
frameworks depend heavily on manually predefined tools and workflows, which
hinder their adaptability, scalability, and generalization across domains. In
this work, we introduce Alita--a generalist agent designed with the principle
of "Simplicity is the ultimate sophistication," enabling scalable agentic
reasoning through minimal predefinition and maximal self-evolution. For minimal
predefinition, Alita is equipped with only one component for direct
problem-solving, making it much simpler and neater than previous approaches
that relied heavily on hand-crafted, elaborate tools and workflows. This clean
design enhances its potential to generalize to challenging questions, without
being limited by tools. For Maximal self-evolution, we enable the creativity of
Alita by providing a suite of general-purpose components to autonomously
construct, refine, and reuse external capabilities by generating task-related
model context protocols (MCPs) from open source, which contributes to scalable
agentic reasoning. Notably, Alita achieves 75.15% pass@1 and 87.27% pass@3
accuracy, which is top-ranking among general-purpose agents, on the GAIA
benchmark validation dataset, 74.00% and 52.00% pass@1, respectively, on
Mathvista and PathVQA, outperforming many agent systems with far greater
complexity. More details will be updated at
https://github.com/CharlesQ9/Alita{https://github.com/CharlesQ9/Alita}.Summary
AI-Generated Summary