Exploration des capacités des grands modèles de langage pour résoudre des analogies proportionnelles via l'incitation renforcée par la connaissance
Exploring the Abilities of Large Language Models to Solve Proportional Analogies via Knowledge-Enhanced Prompting
December 1, 2024
Auteurs: Thilini Wijesiriwardene, Ruwan Wickramarachchi, Sreeram Vennam, Vinija Jain, Aman Chadha, Amitava Das, Ponnurangam Kumaraguru, Amit Sheth
cs.AI
Résumé
Faire des analogies est fondamental pour la cognition. Les analogies proportionnelles, qui se composent de quatre termes, sont souvent utilisées pour évaluer les capacités linguistiques et cognitives. Par exemple, compléter des analogies comme "L'oxygène est au gaz ce que <vide> est au <vide>" nécessite d'identifier la relation sémantique (par exemple, "type de") entre le premier couple de termes ("Oxygène" et "Gaz") et de trouver un deuxième couple partageant la même relation (par exemple, "Aluminium" et "Métal"). Dans ce travail, nous introduisons un ensemble de données de 15 000 questions à choix multiples (MCQA) pour l'achèvement d'analogies proportionnelles et évaluons les performances des modèles de langue de grande taille (LLM) contemporains dans divers contextes de requêtes améliorés par la connaissance. Plus précisément, nous enrichissons les requêtes avec trois types de connaissances : exemplaire, structurée et ciblée. Nos résultats montrent qu'en dépit de données d'entraînement étendues, résoudre des analogies proportionnelles reste un défi pour les LLM actuels, le meilleur modèle atteignant une précision de 55 %. Notamment, nous constatons que fournir une connaissance ciblée peut mieux aider les modèles à compléter des analogies proportionnelles par rapport à la fourniture d'exemples ou de collections de connaissances structurées.
English
Making analogies is fundamental to cognition. Proportional analogies, which
consist of four terms, are often used to assess linguistic and cognitive
abilities. For instance, completing analogies like "Oxygen is to Gas as <blank>
is to <blank>" requires identifying the semantic relationship (e.g., "type of")
between the first pair of terms ("Oxygen" and "Gas") and finding a second pair
that shares the same relationship (e.g., "Aluminum" and "Metal"). In this work,
we introduce a 15K Multiple-Choice Question Answering (MCQA) dataset for
proportional analogy completion and evaluate the performance of contemporary
Large Language Models (LLMs) in various knowledge-enhanced prompt settings.
Specifically, we augment prompts with three types of knowledge: exemplar,
structured, and targeted. Our results show that despite extensive training
data, solving proportional analogies remains challenging for current LLMs, with
the best model achieving an accuracy of 55%. Notably, we find that providing
targeted knowledge can better assist models in completing proportional
analogies compared to providing exemplars or collections of structured
knowledge.Summary
AI-Generated Summary