ChatPaper.aiChatPaper

MUSCLE : Une stratégie de mise à jour de modèle pour l'évolution compatible des LLM

MUSCLE: A Model Update Strategy for Compatible LLM Evolution

July 12, 2024
Auteurs: Jessica Echterhoff, Fartash Faghri, Raviteja Vemulapalli, Ting-Yao Hu, Chun-Liang Li, Oncel Tuzel, Hadi Pouransari
cs.AI

Résumé

Les grands modèles de langage (LLMs) sont fréquemment mis à jour en raison de modifications des données ou de l'architecture afin d'améliorer leurs performances. Lors de la mise à jour des modèles, les développeurs se concentrent souvent sur l'amélioration des métriques de performance globales, en accordant moins d'importance à la compatibilité avec les versions précédentes du modèle. Cependant, les utilisateurs construisent souvent un modèle mental des fonctionnalités et des capacités d'un modèle d'apprentissage automatique particulier avec lequel ils interagissent. Ils doivent adapter ce modèle mental à chaque mise à jour — une tâche épuisante qui peut entraîner une insatisfaction des utilisateurs. En pratique, les adaptateurs de tâches en aval affinés reposent sur des modèles de base LLM pré-entraînés. Lorsque ces modèles de base sont mis à jour, ces modèles de tâches en aval utilisés par les utilisateurs subissent une régression d'instances ou des inversions négatives — des instances précédemment correctes sont maintenant prédites de manière incorrecte. Cela se produit même lorsque les procédures d'entraînement des tâches en aval restent identiques. Notre travail vise à fournir des mises à jour de modèles transparentes pour l'utilisateur de deux manières. Premièrement, nous proposons des métriques d'évaluation pour une notion de compatibilité avec les versions précédentes du modèle, spécifiquement pour les tâches génératives mais également applicables aux tâches discriminatives. Nous observons des régressions et des incohérences entre différentes versions de modèles sur un ensemble diversifié de tâches et de mises à jour de modèles. Deuxièmement, nous proposons une stratégie d'entraînement pour minimiser le nombre d'incohérences lors des mises à jour de modèles, impliquant l'entraînement d'un modèle de compatibilité qui peut améliorer les modèles de langage affinés pour des tâches spécifiques. Nous réduisons les inversions négatives — les instances où une version précédente du modèle était correcte, mais une nouvelle version incorrecte — jusqu'à 40 % entre Llama 1 et Llama 2.
English
Large Language Models (LLMs) are frequently updated due to data or architecture changes to improve their performance. When updating models, developers often focus on increasing overall performance metrics with less emphasis on being compatible with previous model versions. However, users often build a mental model of the functionality and capabilities of a particular machine learning model they are interacting with. They have to adapt their mental model with every update -- a draining task that can lead to user dissatisfaction. In practice, fine-tuned downstream task adapters rely on pretrained LLM base models. When these base models are updated, these user-facing downstream task models experience instance regression or negative flips -- previously correct instances are now predicted incorrectly. This happens even when the downstream task training procedures remain identical. Our work aims to provide seamless model updates to a user in two ways. First, we provide evaluation metrics for a notion of compatibility to prior model versions, specifically for generative tasks but also applicable for discriminative tasks. We observe regression and inconsistencies between different model versions on a diverse set of tasks and model updates. Second, we propose a training strategy to minimize the number of inconsistencies in model updates, involving training of a compatibility model that can enhance task fine-tuned language models. We reduce negative flips -- instances where a prior model version was correct, but a new model incorrect -- by up to 40% from Llama 1 to Llama 2.

Summary

AI-Generated Summary

PDF232November 28, 2024