Het verkennen van de mogelijkheden van grote taalmodellen om proportionele analogieën op te lossen via kennisversterkte prompting.
Exploring the Abilities of Large Language Models to Solve Proportional Analogies via Knowledge-Enhanced Prompting
December 1, 2024
Auteurs: Thilini Wijesiriwardene, Ruwan Wickramarachchi, Sreeram Vennam, Vinija Jain, Aman Chadha, Amitava Das, Ponnurangam Kumaraguru, Amit Sheth
cs.AI
Samenvatting
Het maken van analogieën is fundamenteel voor cognitie. Proportionele analogieën, die bestaan uit vier termen, worden vaak gebruikt om linguïstische en cognitieve vaardigheden te beoordelen. Bijvoorbeeld, het invullen van analogieën zoals "Zuurstof is tot Gas als <blanco> is tot <blanco>" vereist het identificeren van de semantische relatie (bijv. "soort") tussen het eerste paar termen ("Zuurstof" en "Gas") en het vinden van een tweede paar dat dezelfde relatie deelt (bijv. "Aluminium" en "Metaal"). In dit werk introduceren we een 15K Multiple-Choice Question Answering (MCQA) dataset voor het voltooien van proportionele analogieën en evalueren we de prestaties van hedendaagse Grote Taalmodellen (LLM's) in verschillende op kennis verrijkte prompt-instellingen. Specifiek verrijken we prompts met drie soorten kennis: voorbeeld, gestructureerd en gericht. Onze resultaten tonen aan dat ondanks uitgebreide trainingsgegevens, het oplossen van proportionele analogieën uitdagend blijft voor huidige LLM's, waarbij het beste model een nauwkeurigheid van 55% behaalt. Opmerkelijk is dat we vinden dat het verstrekken van gerichte kennis modellen beter kan helpen bij het voltooien van proportionele analogieën in vergelijking met het verstrekken van voorbeelden of verzamelingen van gestructureerde kennis.
English
Making analogies is fundamental to cognition. Proportional analogies, which
consist of four terms, are often used to assess linguistic and cognitive
abilities. For instance, completing analogies like "Oxygen is to Gas as <blank>
is to <blank>" requires identifying the semantic relationship (e.g., "type of")
between the first pair of terms ("Oxygen" and "Gas") and finding a second pair
that shares the same relationship (e.g., "Aluminum" and "Metal"). In this work,
we introduce a 15K Multiple-Choice Question Answering (MCQA) dataset for
proportional analogy completion and evaluate the performance of contemporary
Large Language Models (LLMs) in various knowledge-enhanced prompt settings.
Specifically, we augment prompts with three types of knowledge: exemplar,
structured, and targeted. Our results show that despite extensive training
data, solving proportional analogies remains challenging for current LLMs, with
the best model achieving an accuracy of 55%. Notably, we find that providing
targeted knowledge can better assist models in completing proportional
analogies compared to providing exemplars or collections of structured
knowledge.