ChatPaper.aiChatPaper

Ajuste de Modelos de Lenguaje mediante Proxy

Tuning Language Models by Proxy

January 16, 2024
Autores: Alisa Liu, Xiaochuang Han, Yizhong Wang, Yulia Tsvetkov, Yejin Choi, Noah A. Smith
cs.AI

Resumen

A pesar de las capacidades generales de los grandes modelos de lenguaje preentrenados, estos se benefician consistentemente de una mayor adaptación para lograr mejor los comportamientos deseados. Sin embargo, ajustar estos modelos se ha vuelto cada vez más intensivo en recursos, o imposible cuando los pesos del modelo son privados. Introducimos el proxy-tuning, un algoritmo ligero en tiempo de decodificación que opera sobre modelos de lenguaje de caja negra para lograr el resultado de ajustar directamente el modelo, pero accediendo solo a sus predicciones sobre el vocabulario de salida. Nuestro método ajusta en su lugar un modelo de lenguaje más pequeño, luego aplica la diferencia entre las predicciones de los modelos pequeños ajustados y no ajustados para desplazar las predicciones originales del modelo base en la dirección del ajuste, manteniendo los beneficios del preentrenamiento a gran escala. En experimentos, cuando aplicamos proxy-tuning a Llama2-70B usando proxies de solo 7B de tamaño, podemos cerrar el 88% de la brecha entre Llama2-70B y su versión de chat realmente ajustada, cuando se evalúa en benchmarks de conocimiento, razonamiento y seguridad. Curiosamente, cuando se prueba en TruthfulQA, los modelos con proxy-tuning son en realidad más veraces que los modelos ajustados directamente, posiblemente porque la guía en tiempo de decodificación conserva mejor el conocimiento factual del modelo. Luego demostramos la generalidad del proxy-tuning aplicándolo para la adaptación de dominio en código y el ajuste específico de tareas en resolución de preguntas y problemas matemáticos. Nuestro trabajo demuestra el potencial de usar modelos de lenguaje pequeños ajustados para personalizar eficientemente modelos de lenguaje grandes, potencialmente propietarios, mediante guía en tiempo de decodificación.
English
Despite the general capabilities of large pretrained language models, they consistently benefit from further adaptation to better achieve desired behaviors. However, tuning these models has become increasingly resource-intensive, or impossible when model weights are private. We introduce proxy-tuning, a lightweight decoding-time algorithm that operates on top of black-box LMs to achieve the result of directly tuning the model, but by accessing only its prediction over the output vocabulary. Our method instead tunes a smaller LM, then applies the difference between the predictions of the small tuned and untuned LMs to shift the original predictions of the base model in the direction of tuning, while retaining the benefits of larger scale pretraining. In experiments, when we apply proxy-tuning to Llama2-70B using proxies of only 7B size, we can close 88% of the gap between Llama2-70B and its truly-tuned chat version, when evaluated across knowledge, reasoning, and safety benchmarks. Interestingly, when tested on TruthfulQA, proxy-tuned models are actually more truthful than directly tuned models, possibly because decoding-time guidance better retains the model's factual knowledge. We then demonstrate the generality of proxy-tuning by applying it for domain adaptation on code, and task-specific finetuning on question-answering and math problems. Our work demonstrates the promise of using small tuned LMs to efficiently customize large, potentially proprietary LMs through decoding-time guidance.
PDF242December 15, 2024