Explorando as habilidades de grandes modelos de linguagem para resolver analogias proporcionais por meio de estímulos aprimorados pelo conhecimento.
Exploring the Abilities of Large Language Models to Solve Proportional Analogies via Knowledge-Enhanced Prompting
December 1, 2024
Autores: Thilini Wijesiriwardene, Ruwan Wickramarachchi, Sreeram Vennam, Vinija Jain, Aman Chadha, Amitava Das, Ponnurangam Kumaraguru, Amit Sheth
cs.AI
Resumo
Fazer analogias é fundamental para a cognição. Analogias proporcionais, que consistem em quatro termos, são frequentemente utilizadas para avaliar habilidades linguísticas e cognitivas. Por exemplo, completar analogias como "Oxigênio é para Gás como <em branco> é para <em branco>" requer identificar o relacionamento semântico (por exemplo, "tipo de") entre o primeiro par de termos ("Oxigênio" e "Gás") e encontrar um segundo par que compartilhe o mesmo relacionamento (por exemplo, "Alumínio" e "Metal"). Neste trabalho, apresentamos um conjunto de dados de 15 mil perguntas de escolha múltipla para a conclusão de analogias proporcionais e avaliamos o desempenho de Modelos de Linguagem Grandes (LLMs) contemporâneos em vários contextos de prompt aprimorados com conhecimento. Especificamente, nós enriquecemos os prompts com três tipos de conhecimento: exemplar, estruturado e direcionado. Nossos resultados mostram que, apesar dos extensos dados de treinamento, resolver analogias proporcionais continua sendo um desafio para os atuais LLMs, com o melhor modelo alcançando uma precisão de 55%. Notavelmente, descobrimos que fornecer conhecimento direcionado pode ajudar melhor os modelos a completar analogias proporcionais em comparação com a disponibilização de exemplares ou coleções de conhecimento estruturado.
English
Making analogies is fundamental to cognition. Proportional analogies, which
consist of four terms, are often used to assess linguistic and cognitive
abilities. For instance, completing analogies like "Oxygen is to Gas as <blank>
is to <blank>" requires identifying the semantic relationship (e.g., "type of")
between the first pair of terms ("Oxygen" and "Gas") and finding a second pair
that shares the same relationship (e.g., "Aluminum" and "Metal"). In this work,
we introduce a 15K Multiple-Choice Question Answering (MCQA) dataset for
proportional analogy completion and evaluate the performance of contemporary
Large Language Models (LLMs) in various knowledge-enhanced prompt settings.
Specifically, we augment prompts with three types of knowledge: exemplar,
structured, and targeted. Our results show that despite extensive training
data, solving proportional analogies remains challenging for current LLMs, with
the best model achieving an accuracy of 55%. Notably, we find that providing
targeted knowledge can better assist models in completing proportional
analogies compared to providing exemplars or collections of structured
knowledge.Summary
AI-Generated Summary