ChatPaper.aiChatPaper

MARS: Modularer Agent mit reflektiver Suche für automatisierte KI-Forschung

MARS: Modular Agent with Reflective Search for Automated AI Research

February 2, 2026
papers.authors: Jiefeng Chen, Bhavana Dalvi Mishra, Jaehyun Nam, Rui Meng, Tomas Pfister, Jinsung Yoon
cs.AI

papers.abstract

Die Automatisierung der KI-Forschung unterscheidet sich von allgemeiner Softwareentwicklung durch rechenintensive Evaluierung (z.B. Modelltraining) und undurchsichtige Leistungszuordnung. Aktuelle LLM-basierte Agenten scheitern hier oft, indem sie monolithische Skripte generieren, die Ausführungskosten und kausale Faktoren ignorieren. Wir stellen MARS (Modular Agent with Reflective Search) vor, ein für autonome KI-Forschung optimiertes Framework. MARS basiert auf drei Säulen: (1) Budgetbewusste Planung durch kosteneingeschränkte Monte-Carlo-Baumsuche (MCTS), um Leistung und Ausführungsaufwand explizit abzuwägen; (2) Modulare Konstruktion mittels einer "Design-Zerlegung-Implementierung"-Pipeline zur Verwaltung komplexer Forschungsrepositorys; und (3) Vergleichendes reflektives Gedächtnis, das die Verdienstzuweisung durch Analyse von Lösungsunterschieden adressiert, um hochsignifikante Erkenntnisse zu destillieren. MARS erreicht unter vergleichbaren Bedingungen state-of-the-art-Leistung unter Open-Source-Frameworks auf MLE-Bench und bleibt mit den Top-Methoden der globalen Bestenliste wettbewerbsfähig. Zudem zeigt das System qualitative "Aha!"-Momente, bei denen 63% aller genutzten Lektionen aus übergreifendem Transfer zwischen Zweigen stammen, was demonstriert, dass der Agent Erkenntnisse effektiv über Suchpfade hinweg verallgemeinert.
English
Automating AI research differs from general software engineering due to computationally expensive evaluation (e.g., model training) and opaque performance attribution. Current LLM-based agents struggle here, often generating monolithic scripts that ignore execution costs and causal factors. We introduce MARS (Modular Agent with Reflective Search), a framework optimized for autonomous AI research. MARS relies on three pillars: (1) Budget-Aware Planning via cost-constrained Monte Carlo Tree Search (MCTS) to explicitly balance performance with execution expense; (2) Modular Construction, employing a "Design-Decompose-Implement" pipeline to manage complex research repositories; and (3) Comparative Reflective Memory, which addresses credit assignment by analyzing solution differences to distill high-signal insights. MARS achieves state-of-the-art performance among open-source frameworks on MLE-Bench under comparable settings, maintaining competitiveness with the global leaderboard's top methods. Furthermore, the system exhibits qualitative "Aha!" moments, where 63% of all utilized lessons originate from cross-branch transfer, demonstrating that the agent effectively generalizes insights across search paths.
PDF565February 8, 2026