ChatPaper.aiChatPaper

Tag-LLM : Réaffectation des LLM polyvalents pour des domaines spécialisés

Tag-LLM: Repurposing General-Purpose LLMs for Specialized Domains

February 6, 2024
Auteurs: Junhong Shen, Neil Tenenholtz, James Brian Hall, David Alvarez-Melis, Nicolo Fusi
cs.AI

Résumé

Les modèles de langage de grande taille (LLMs) ont démontré une remarquable maîtrise dans la compréhension et la génération du langage naturel. Cependant, leurs capacités s’affaiblissent dans des domaines hautement spécialisés sous-représentés dans le corpus de pré-entraînement, tels que les sciences physiques et biomédicales. Ce travail explore comment réadapter des LLMs généraux pour en faire des solveurs de tâches efficaces dans des domaines spécialisés. Nous introduisons un cadre novateur et indépendant du modèle pour apprendre des balises d’entrée personnalisées, paramétrées sous forme de vecteurs continus ajoutés à la couche d’embedding du LLM, afin de conditionner celui-ci. Nous concevons deux types de balises d’entrée : les balises de domaine, utilisées pour délimiter des représentations spécialisées (par exemple, des formules chimiques) et fournir un contexte pertinent au domaine ; et les balises de fonction, utilisées pour représenter des fonctions spécifiques (par exemple, la prédiction de propriétés moléculaires) et compresser les instructions de résolution de fonctions. Nous développons un protocole en trois étapes pour apprendre ces balises à l’aide de données auxiliaires et de connaissances du domaine. En dissociant explicitement les domaines de tâche des fonctions de tâche, notre méthode permet une généralisation à zéro-shot à des problèmes inédits grâce à des combinaisons variées des balises d’entrée. Elle améliore également les performances des LLMs dans divers domaines spécialisés, tels que la prédiction des propriétés des protéines ou des produits chimiques, et la modélisation des interactions médicament-cible, surpassant les modèles experts conçus pour ces tâches.
English
Large Language Models (LLMs) have demonstrated remarkable proficiency in understanding and generating natural language. However, their capabilities wane in highly specialized domains underrepresented in the pretraining corpus, such as physical and biomedical sciences. This work explores how to repurpose general LLMs into effective task solvers for specialized domains. We introduce a novel, model-agnostic framework for learning custom input tags, which are parameterized as continuous vectors appended to the LLM's embedding layer, to condition the LLM. We design two types of input tags: domain tags are used to delimit specialized representations (e.g., chemical formulas) and provide domain-relevant context; function tags are used to represent specific functions (e.g., predicting molecular properties) and compress function-solving instructions. We develop a three-stage protocol to learn these tags using auxiliary data and domain knowledge. By explicitly disentangling task domains from task functions, our method enables zero-shot generalization to unseen problems through diverse combinations of the input tags. It also boosts LLM's performance in various specialized domains, such as predicting protein or chemical properties and modeling drug-target interactions, outperforming expert models tailored to these tasks.
PDF241December 15, 2024