CODESIM: МногоАгентная Генерация Кода и Решение Проблем через Планирование и Отладку, Основанные на Симуляции.
CODESIM: Multi-Agent Code Generation and Problem Solving through Simulation-Driven Planning and Debugging
February 8, 2025
Авторы: Md. Ashraful Islam, Mohammed Eunus Ali, Md Rizwan Parvez
cs.AI
Аннотация
Большие языковые модели (LLM) сделали значительные успехи в генерации кода и решении задач. В текущих подходах используются внешние инструментальные итеративные отладчики, которые используют обратную связь времени выполнения компилятора или других инструментов для улучшения грубых программ, сгенерированных различными методами. Однако эффективность этих подходов в значительной степени зависит от качества начальной генерации кода, что остается открытой проблемой. В данной статье мы представляем CodeSim, новую многоагентную платформу генерации кода, которая всесторонне решает этапы синтеза программ - планирование, кодирование и отладку - через подход, аналогичный восприятию человека. Поскольку человек проверяет свое понимание любых алгоритмов через визуальное моделирование, CodeSim уникально представляет метод проверки плана и внутренней отладки через пошаговую симуляцию ввода/вывода. Обширные эксперименты на семи сложных конкурентных бенчмарках по решению проблем и синтезу программ демонстрируют выдающиеся возможности генерации кода CodeSim. Наша платформа достигает новых результатов на уровне передовых технологий (прохождение@1) - (HumanEval 95,1%, MBPP 90,7%, APPS 22% и CodeContests 29,1%). Более того, наш метод показывает потенциал для еще большего улучшения при совмещении с внешними отладчиками. Для облегчения дальнейших исследований и разработок в этой области мы открыли исходный код нашей платформы по этой ссылке (https://kagnlp.github.io/codesim.github.io/).
English
Large Language Models (LLMs) have made significant strides in code generation
and problem solving. Current approaches employ external tool-based iterative
debuggers that use compiler or other tool-based runtime feedback to refine
coarse programs generated by various methods. However, the effectiveness of
these approaches heavily relies on the quality of the initial code generation,
which remains an open challenge. In this paper, we introduce CodeSim, a novel
multi-agent code generation framework that comprehensively addresses the stages
of program synthesis-planning, coding, and debugging-through a human-like
perception approach. As human verifies their understanding of any algorithms
through visual simulation, CodeSim uniquely features a method of plan
verification and internal debugging through the step-by-step simulation of
input/output. Extensive experiments across seven challenging competitive
problem-solving and program synthesis benchmarks demonstrate CodeSim's
remarkable code generation capabilities. Our framework achieves new
state-of-the-art (pass@1) results-(HumanEval 95.1%, MBPP 90.7%, APPS 22%, and
CodeContests 29.1%). Furthermore, our method shows potential for even greater
enhancement when cascaded with external debuggers. To facilitate further
research and development in this area, we have open-sourced our framework in
this link (https://kagnlp.github.io/codesim.github.io/).Summary
AI-Generated Summary