CodeTF: Biblioteca Integral de Transformers para Modelos de Lenguaje de Código de Última Generación
CodeTF: One-stop Transformer Library for State-of-the-art Code LLM
May 31, 2023
Autores: Nghi D. Q. Bui, Hung Le, Yue Wang, Junnan Li, Akhilesh Deepak Gotmare, Steven C. H. Hoi
cs.AI
Resumen
La inteligencia de código juega un papel clave en la transformación de la ingeniería de software moderna. Recientemente, los modelos basados en aprendizaje profundo, especialmente los grandes modelos de lenguaje (LLMs) basados en Transformers, han demostrado un potencial notable para abordar estas tareas al aprovechar grandes cantidades de datos de código abierto y las características de los lenguajes de programación. Sin embargo, el desarrollo y despliegue de dichos modelos suelen requerir experiencia tanto en aprendizaje automático como en ingeniería de software, lo que crea una barrera para su adopción. En este artículo, presentamos CodeTF, una biblioteca de código abierto basada en Transformers para LLMs de código de última generación e inteligencia de código. Siguiendo los principios de diseño modular y marco extensible, diseñamos CodeTF con una interfaz unificada para permitir un acceso y desarrollo rápido en diferentes tipos de modelos, conjuntos de datos y tareas. Nuestra biblioteca incluye una colección de modelos LLMs de código preentrenados y benchmarks populares de código, además de una interfaz estandarizada para entrenar y servir LLMs de código de manera eficiente, y características de datos como analizadores específicos de lenguajes y funciones de utilidad para extraer atributos de código. En este artículo, describimos los principios de diseño, la arquitectura, los módulos y componentes clave, y realizamos una comparación con otras herramientas de biblioteca relacionadas. Finalmente, esperamos que CodeTF pueda cerrar la brecha entre el aprendizaje automático/IA generativa y la ingeniería de software, ofreciendo una solución integral de código abierto para desarrolladores, investigadores y profesionales.
English
Code intelligence plays a key role in transforming modern software
engineering. Recently, deep learning-based models, especially Transformer-based
large language models (LLMs), have demonstrated remarkable potential in
tackling these tasks by leveraging massive open-source code data and
programming language features. However, the development and deployment of such
models often require expertise in both machine learning and software
engineering, creating a barrier for the model adoption. In this paper, we
present CodeTF, an open-source Transformer-based library for state-of-the-art
Code LLMs and code intelligence. Following the principles of modular design and
extensible framework, we design CodeTF with a unified interface to enable rapid
access and development across different types of models, datasets and tasks.
Our library supports a collection of pretrained Code LLM models and popular
code benchmarks, including a standardized interface to train and serve code
LLMs efficiently, and data features such as language-specific parsers and
utility functions for extracting code attributes. In this paper, we describe
the design principles, the architecture, key modules and components, and
compare with other related library tools. Finally, we hope CodeTF is able to
bridge the gap between machine learning/generative AI and software engineering,
providing a comprehensive open-source solution for developers, researchers, and
practitioners.