ChatPaper.aiChatPaper

코드를 위한 언어 모델에 관한 연구 동향

A Survey on Language Models for Code

November 14, 2023
저자: Ziyin Zhang, Chaoyu Chen, Bingchang Liu, Cong Liao, Zi Gong, Hang Yu, Jianguo Li, Rui Wang
cs.AI

초록

본 연구에서는 코드 처리 분야의 최신 발전을 체계적으로 검토하며, 50개 이상의 모델, 30개 이상의 평가 과제, 그리고 500편 이상의 관련 연구를 다룹니다. 코드 처리 모델을 GPT 계열로 대표되는 일반 언어 모델과 코드에 특화된 목적으로 사전 학습된 전문화된 모델로 구분하여 살펴봅니다. 이러한 모델 간의 관계와 차이점을 논의하고, 통계적 모델과 RNN에서 사전 학습된 트랜스포머와 대형 언어 모델(LLM)로의 코드 모델링 역사적 전환을 강조합니다. 이는 자연어 처리(NLP) 분야에서 겪은 과정과 정확히 일치합니다. 또한 AST(추상 구문 트리), CFG(제어 흐름 그래프), 단위 테스트와 같은 코드 특화 기능과 이들이 코드 언어 모델 학습에 어떻게 적용되는지 논의하며, 이 분야의 주요 과제와 잠재적인 미래 방향을 제시합니다. 본 조사는 깃허브 저장소(https://github.com/codefuse-ai/Awesome-Code-LLM)에서 공개적으로 유지되며 지속적으로 업데이트됩니다.
English
In this work we systematically review the recent advancements in code processing with language models, covering 50+ models, 30+ evaluation tasks, and 500 related works. We break down code processing models into general language models represented by the GPT family and specialized models that are specifically pretrained on code, often with tailored objectives. We discuss the relations and differences between these models, and highlight the historical transition of code modeling from statistical models and RNNs to pretrained Transformers and LLMs, which is exactly the same course that had been taken by NLP. We also discuss code-specific features such as AST, CFG, and unit tests, along with their application in training code language models, and identify key challenges and potential future directions in this domain. We keep the survey open and updated on github repository at https://github.com/codefuse-ai/Awesome-Code-LLM.
PDF250December 15, 2024