Tag-LLM : Réaffectation des LLM polyvalents pour des domaines spécialisés
Tag-LLM: Repurposing General-Purpose LLMs for Specialized Domains
February 6, 2024
Auteurs: Junhong Shen, Neil Tenenholtz, James Brian Hall, David Alvarez-Melis, Nicolo Fusi
cs.AI
Résumé
Les modèles de langage de grande taille (LLMs) ont démontré une remarquable maîtrise dans la compréhension et la génération du langage naturel. Cependant, leurs capacités s’affaiblissent dans des domaines hautement spécialisés sous-représentés dans le corpus de pré-entraînement, tels que les sciences physiques et biomédicales. Ce travail explore comment réadapter des LLMs généraux pour en faire des solveurs de tâches efficaces dans des domaines spécialisés. Nous introduisons un cadre novateur et indépendant du modèle pour apprendre des balises d’entrée personnalisées, paramétrées sous forme de vecteurs continus ajoutés à la couche d’embedding du LLM, afin de conditionner celui-ci. Nous concevons deux types de balises d’entrée : les balises de domaine, utilisées pour délimiter des représentations spécialisées (par exemple, des formules chimiques) et fournir un contexte pertinent au domaine ; et les balises de fonction, utilisées pour représenter des fonctions spécifiques (par exemple, la prédiction de propriétés moléculaires) et compresser les instructions de résolution de fonctions. Nous développons un protocole en trois étapes pour apprendre ces balises à l’aide de données auxiliaires et de connaissances du domaine. En dissociant explicitement les domaines de tâche des fonctions de tâche, notre méthode permet une généralisation à zéro-shot à des problèmes inédits grâce à des combinaisons variées des balises d’entrée. Elle améliore également les performances des LLMs dans divers domaines spécialisés, tels que la prédiction des propriétés des protéines ou des produits chimiques, et la modélisation des interactions médicament-cible, surpassant les modèles experts conçus pour ces tâches.
English
Large Language Models (LLMs) have demonstrated remarkable proficiency in
understanding and generating natural language. However, their capabilities wane
in highly specialized domains underrepresented in the pretraining corpus, such
as physical and biomedical sciences. This work explores how to repurpose
general LLMs into effective task solvers for specialized domains. We introduce
a novel, model-agnostic framework for learning custom input tags, which are
parameterized as continuous vectors appended to the LLM's embedding layer, to
condition the LLM. We design two types of input tags: domain tags are used to
delimit specialized representations (e.g., chemical formulas) and provide
domain-relevant context; function tags are used to represent specific functions
(e.g., predicting molecular properties) and compress function-solving
instructions. We develop a three-stage protocol to learn these tags using
auxiliary data and domain knowledge. By explicitly disentangling task domains
from task functions, our method enables zero-shot generalization to unseen
problems through diverse combinations of the input tags. It also boosts LLM's
performance in various specialized domains, such as predicting protein or
chemical properties and modeling drug-target interactions, outperforming expert
models tailored to these tasks.