ChatPaper.aiChatPaper

Muestreo Prioritizado de Modelos de Lenguaje a Gran Escala para Compiladores

Priority Sampling of Large Language Models for Compilers

February 28, 2024
Autores: Dejan Grubisic, Chris Cummins, Volker Seeker, Hugh Leather
cs.AI

Resumen

Los grandes modelos de lenguaje muestran un gran potencial en la generación y optimización de código. Los métodos de muestreo ampliamente utilizados, como el Muestreo de Núcleo, aumentan la diversidad de la generación, pero a menudo producen muestras repetidas para temperaturas bajas y muestras incoherentes para temperaturas altas. Además, el coeficiente de temperatura debe ajustarse para cada tarea, lo que limita su usabilidad. Presentamos el Muestreo por Prioridad, una técnica de muestreo simple y determinista que produce muestras únicas ordenadas por la confianza del modelo. Cada nueva muestra expande el token no expandido con la mayor probabilidad en el árbol de búsqueda aumentado. Adicionalmente, el Muestreo por Prioridad admite la generación basada en expresiones regulares, lo que proporciona un proceso de exploración controlado y estructurado. El Muestreo por Prioridad supera al Muestreo de Núcleo para cualquier número de muestras, mejorando el rendimiento del modelo original de un 2.87% a un 5% de mejora sobre -Oz. Además, supera al sintonizador automático utilizado para la generación de etiquetas para el entrenamiento del modelo original en tan solo 30 muestras.
English
Large language models show great potential in generating and optimizing code. Widely used sampling methods such as Nucleus Sampling increase the diversity of generation but often produce repeated samples for low temperatures and incoherent samples for high temperatures. Furthermore, the temperature coefficient has to be tuned for each task, limiting its usability. We present Priority Sampling, a simple and deterministic sampling technique that produces unique samples ordered by the model's confidence. Each new sample expands the unexpanded token with the highest probability in the augmented search tree. Additionally, Priority Sampling supports generation based on regular expression that provides a controllable and structured exploration process. Priority Sampling outperforms Nucleus Sampling for any number of samples, boosting the performance of the original model from 2.87% to 5% improvement over -Oz. Moreover, it outperforms the autotuner used for the generation of labels for the training of the original model in just 30 samples.
PDF181December 15, 2024