ChatPaper.aiChatPaper

Исследование возможностей крупных языковых моделей в решении пропорциональных аналогий с помощью усиления знаний через подсказки.

Exploring the Abilities of Large Language Models to Solve Proportional Analogies via Knowledge-Enhanced Prompting

December 1, 2024
Авторы: Thilini Wijesiriwardene, Ruwan Wickramarachchi, Sreeram Vennam, Vinija Jain, Aman Chadha, Amitava Das, Ponnurangam Kumaraguru, Amit Sheth
cs.AI

Аннотация

Аналогии играют фундаментальную роль в когнитивных процессах. Пропорциональные аналогии, состоящие из четырех терминов, часто используются для оценки лингвистических и когнитивных способностей. Например, заполнение аналогий вроде "Кислород относится к Газу как <пусто> относится к <пусто>" требует определения семантической связи (например, "тип") между первой парой терминов ("Кислород" и "Газ") и нахождения второй пары, которая разделяет ту же связь (например, "Алюминий" и "Металл"). В данной работе мы представляем набор данных для многовариантного вопросно-ответного теста на 15 тыс. пропорциональных аналогий и оцениваем производительность современных моделей больших языков (LLM) в различных настройках запросов с улучшенными знаниями. Конкретно, мы дополняем запросы тремя типами знаний: образцовым, структурированным и целевым. Наши результаты показывают, что несмотря на обширные данные для обучения, решение пропорциональных аналогий остается сложной задачей для текущих LLM, лучшая модель достигает точности 55%. Особенно мы обнаружили, что предоставление целевых знаний может лучше помочь моделям в заполнении пропорциональных аналогий по сравнению с предоставлением образцов или коллекций структурированных знаний.
English
Making analogies is fundamental to cognition. Proportional analogies, which consist of four terms, are often used to assess linguistic and cognitive abilities. For instance, completing analogies like "Oxygen is to Gas as <blank> is to <blank>" requires identifying the semantic relationship (e.g., "type of") between the first pair of terms ("Oxygen" and "Gas") and finding a second pair that shares the same relationship (e.g., "Aluminum" and "Metal"). In this work, we introduce a 15K Multiple-Choice Question Answering (MCQA) dataset for proportional analogy completion and evaluate the performance of contemporary Large Language Models (LLMs) in various knowledge-enhanced prompt settings. Specifically, we augment prompts with three types of knowledge: exemplar, structured, and targeted. Our results show that despite extensive training data, solving proportional analogies remains challenging for current LLMs, with the best model achieving an accuracy of 55%. Notably, we find that providing targeted knowledge can better assist models in completing proportional analogies compared to providing exemplars or collections of structured knowledge.

Summary

AI-Generated Summary

PDF42December 3, 2024