ChatPaper.aiChatPaper

CODESIM: Generación de Código Multiagente y Resolución de Problemas a través de Planificación y Depuración Guiadas por Simulación.

CODESIM: Multi-Agent Code Generation and Problem Solving through Simulation-Driven Planning and Debugging

February 8, 2025
Autores: Md. Ashraful Islam, Mohammed Eunus Ali, Md Rizwan Parvez
cs.AI

Resumen

Los Modelos de Lenguaje de Gran Tamaño (LLMs) han logrado avances significativos en la generación de código y resolución de problemas. Los enfoques actuales emplean depuradores iterativos basados en herramientas externas que utilizan retroalimentación en tiempo de ejecución basada en compilador u otras herramientas para refinar programas generados de manera rudimentaria por diversos métodos. Sin embargo, la efectividad de estos enfoques depende en gran medida de la calidad de la generación inicial de código, lo cual sigue siendo un desafío abierto. En este documento, presentamos CodeSim, un novedoso marco de generación de código multiagente que aborda de manera integral las etapas de síntesis de programas: planificación, codificación y depuración, a través de un enfoque de percepción similar al humano. Al igual que los humanos verifican su comprensión de cualquier algoritmo a través de simulaciones visuales, CodeSim presenta de manera única un método de verificación de planes y depuración interna mediante la simulación paso a paso de entrada/salida. Experimentos extensos en siete desafiantes bancos de pruebas de resolución de problemas y síntesis de programas demuestran las notables capacidades de generación de código de CodeSim. Nuestro marco logra nuevos resultados de vanguardia (pase@1): (HumanEval 95.1%, MBPP 90.7%, APPS 22% y CodeContests 29.1%). Además, nuestro método muestra potencial para una mejora aún mayor cuando se combina con depuradores externos. Para facilitar la investigación y desarrollo adicionales en esta área, hemos hecho de código abierto nuestro marco en el siguiente enlace (https://kagnlp.github.io/codesim.github.io/).
English
Large Language Models (LLMs) have made significant strides in code generation and problem solving. Current approaches employ external tool-based iterative debuggers that use compiler or other tool-based runtime feedback to refine coarse programs generated by various methods. However, the effectiveness of these approaches heavily relies on the quality of the initial code generation, which remains an open challenge. In this paper, we introduce CodeSim, a novel multi-agent code generation framework that comprehensively addresses the stages of program synthesis-planning, coding, and debugging-through a human-like perception approach. As human verifies their understanding of any algorithms through visual simulation, CodeSim uniquely features a method of plan verification and internal debugging through the step-by-step simulation of input/output. Extensive experiments across seven challenging competitive problem-solving and program synthesis benchmarks demonstrate CodeSim's remarkable code generation capabilities. Our framework achieves new state-of-the-art (pass@1) results-(HumanEval 95.1%, MBPP 90.7%, APPS 22%, and CodeContests 29.1%). Furthermore, our method shows potential for even greater enhancement when cascaded with external debuggers. To facilitate further research and development in this area, we have open-sourced our framework in this link (https://kagnlp.github.io/codesim.github.io/).

Summary

AI-Generated Summary

PDF233February 11, 2025