Agent0-VL: Erforschung selbstentwickelnder Agenten für werkzeugintegriertes visuell-sprachliches Schließen
Agent0-VL: Exploring Self-Evolving Agent for Tool-Integrated Vision-Language Reasoning
November 25, 2025
papers.authors: Jiaqi Liu, Kaiwen Xiong, Peng Xia, Yiyang Zhou, Haonian Ji, Lu Feng, Siwei Han, Mingyu Ding, Huaxiu Yao
cs.AI
papers.abstract
Visuell-sprachliche Agenten haben bemerkenswerte Fortschritte bei einer Vielzahl multimodaler Reasoning-Aufgaben erzielt; ihr Lernen bleibt jedoch durch die Grenzen menschlich annotierter Supervision eingeschränkt. Neuere Self-Rewarding-Ansätze versuchen, diese Einschränkung zu überwinden, indem sie Modelle als ihre eigenen Kritiker oder Belohnungsgeber agieren lassen. Dennoch haben rein textbasierte Selbstbewertungen Schwierigkeiten, komplexe visuelle Reasoning-Schritte zu verifizieren, und leiden oft unter Evaluations-Halluzinationen. Um diese Herausforderungen zu bewältigen, schlagen wir, inspiriert von jüngsten Fortschritten im werkzeuggestützten Reasoning, Agent0-VL vor, einen sich selbst entwickelnden visuell-sprachlichen Agenten, der kontinuierliche Verbesserung durch werkzeugintegriertes Reasoning erreicht. Agent0-VL integriert Werkzeugnutzung nicht nur in das Reasoning, sondern auch in die Selbstbewertung und Selbstreparatur, was dem Modell ermöglicht, sein Reasoning durch evidenzgestützte Analyse zu reflektieren, zu verifizieren und zu verfeinern. Es vereint zwei synergetische Rollen in einem einzigen LVLM: einen Solver, der mehrstufiges, werkzeuggestütztes Reasoning durchführt, und einen Verifier, der strukturiertes Feedback und feinkörnige Selbstbelohnungen durch werkzeuggestützte Kritik generiert. Diese Rollen interagieren durch einen Self-Evolving Reasoning Cycle, bei dem werkzeugbasierte Verifikation und verstärkendes Lernen gemeinsam die Reasoning- und Evaluationsverteilungen für eine stabile Selbstverbesserung ausrichten. Durch diese null-externe-Belohnungs-Evolution passt Agent0-VL sein Reasoning- und Verifikationsverhalten ohne menschliche Annotation oder externe Belohnungsmodelle an und erreicht eine kontinuierliche Selbstverbesserung. Experimente zur Lösung geometrischer Probleme und zur visuellen wissenschaftlichen Analyse zeigen, dass Agent0-VL eine Verbesserung von 12,5 % gegenüber dem Basismodell erzielt. Unser Code ist verfügbar unter https://github.com/aiming-lab/Agent0/Agent0-VL{dieser HTTPS-URL}.
English
Vision-language agents have achieved remarkable progress in a variety of multimodal reasoning tasks; however, their learning remains constrained by the limitations of human-annotated supervision. Recent self-rewarding approaches attempt to overcome this constraint by allowing models to act as their own critics or reward providers. Yet, purely text-based self-evaluation struggles to verify complex visual reasoning steps and often suffers from evaluation hallucinations. To address these challenges, inspired by recent advances in tool-integrated reasoning, we propose Agent0-VL, a self-evolving vision-language agent that achieves continual improvement with tool-integrated reasoning. Agent0-VL incorporates tool usage not only into reasoning but also into self-evaluation and self-repair, enabling the model to introspect, verify, and refine its reasoning through evidence-grounded analysis. It unifies two synergistic roles within a single LVLM: a Solver that performs multi-turn tool-integrated reasoning, and a Verifier that generates structured feedback and fine-grained self-rewards through tool-grounded critique. These roles interact through a Self-Evolving Reasoning Cycle, where tool-based verification and reinforcement learning jointly align the reasoning and evaluation distributions for stable self-improvement. Through this zero-external-reward evolution, Agent0-VL aligns its reasoning and verification behaviors without any human annotation or external reward models, achieving continual self-improvement. Experiments on geometric problem solving and visual scientific analysis show that Agent0-VL achieves an 12.5% improvement over the base model. Our code is available at https://github.com/aiming-lab/Agent0/Agent0-VL{this https URL}.