ChatPaper.aiChatPaper

RLTF: Обучение с подкреплением на основе обратной связи от модульных тестов

RLTF: Reinforcement Learning from Unit Test Feedback

July 10, 2023
Авторы: Jiate Liu, Yiqin Zhu, Kaiwen Xiao, Qiang Fu, Xiao Han, Wei Yang, Deheng Ye
cs.AI

Аннотация

Цель синтеза программ, или генерации кода, заключается в создании исполняемого кода на основе заданных описаний. В последнее время наблюдается рост числа исследований, использующих обучение с подкреплением (RL) для повышения производительности больших языковых моделей (LLM) в области генерации кода. Однако эти методы RL применялись только в рамках оффлайн-подходов, что ограничивает их способность исследовать новые пространства выборок. Кроме того, существующие подходы, использующие сигналы от модульных тестов, являются довольно простыми и не учитывают конкретные места ошибок в коде. Для решения этих проблем мы предложили RLTF, то есть обучение с подкреплением на основе обратной связи от модульных тестов, — новый онлайн-фреймворк RL с обратной связью от модульных тестов различной гранулярности для улучшения LLM, генерирующих код. Наш подход позволяет генерировать данные в реальном времени в процессе обучения и одновременно использовать детализированные сигналы обратной связи для направления модели на создание кода более высокого качества. Многочисленные эксперименты показывают, что RLTF достигает наилучших результатов на бенчмарках APPS и MBPP. Наш код доступен по ссылке: https://github.com/Zyq-scut/RLTF.
English
The goal of program synthesis, or code generation, is to generate executable code based on given descriptions. Recently, there has been an increasing number of studies employing reinforcement learning (RL) to improve the performance of large language models (LLMs) for code. However, these RL methods have only used offline frameworks, limiting their exploration of new sample spaces. Additionally, current approaches that utilize unit test signals are rather simple, not accounting for specific error locations within the code. To address these issues, we proposed RLTF, i.e., Reinforcement Learning from Unit Test Feedback, a novel online RL framework with unit test feedback of multi-granularity for refining code LLMs. Our approach generates data in real-time during training and simultaneously utilizes fine-grained feedback signals to guide the model towards producing higher-quality code. Extensive experiments show that RLTF achieves state-of-the-art performance on the APPS and the MBPP benchmarks. Our code can be found at: https://github.com/Zyq-scut/RLTF.
PDF50December 15, 2024