ChatPaper.aiChatPaper

GSM-Symbolic: Понимание Ограничений Математического Мышления в Больших Языковых Моделях

GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models

October 7, 2024
Авторы: Iman Mirzadeh, Keivan Alizadeh, Hooman Shahrokhi, Oncel Tuzel, Samy Bengio, Mehrdad Farajtabar
cs.AI

Аннотация

Недавние достижения в области крупных языковых моделей (LLM) вызвали интерес к их формальным возможностям рассуждения, особенно в математике. Бенчмарк GSM8K широко используется для оценки математического рассуждения моделей на вопросах начальной школы. Хотя производительность LLM на GSM8K значительно улучшилась в последние годы, остается неясным, действительно ли их математические способности к рассуждению продвинулись, возникают вопросы о надежности отчетных показателей. Для решения этих проблем мы проводим масштабное исследование на нескольких передовых открытых и закрытых моделях. Чтобы преодолеть ограничения существующих оценок, мы представляем GSM-Symbolic, улучшенный бенчмарк, созданный на основе символьных шаблонов, позволяющих генерировать разнообразный набор вопросов. GSM-Symbolic обеспечивает более управляемые оценки, предоставляя ключевые исследования и более надежные показатели для измерения способностей моделей к рассуждению. Наши результаты показывают, что LLM проявляют заметную вариативность при ответе на различные варианты одного и того же вопроса. В частности, производительность всех моделей снижается, когда в бенчмарке GSM-Symbolic изменяются только числовые значения в вопросе. Кроме того, мы исследуем хрупкость математического рассуждения в этих моделях и показываем, что их производительность значительно ухудшается с увеличением числа клаузул в вопросе. Мы предполагаем, что это снижение связано с тем, что текущие LLM не способны выполнять истинное логическое рассуждение; они воспроизводят шаги рассуждения из своих обучающих данных. Добавление одной клаузулы, кажущейся соответствующей вопросу, приводит к значительному снижению производительности (до 65%) для всех передовых моделей, даже если клаузула не вносит вклад в цепочку рассуждений, необходимых для окончательного ответа. В целом, наша работа предлагает более нюансное понимание способностей и ограничений LLM в математическом рассуждении.
English
Recent advancements in Large Language Models (LLMs) have sparked interest in their formal reasoning capabilities, particularly in mathematics. The GSM8K benchmark is widely used to assess the mathematical reasoning of models on grade-school-level questions. While the performance of LLMs on GSM8K has significantly improved in recent years, it remains unclear whether their mathematical reasoning capabilities have genuinely advanced, raising questions about the reliability of the reported metrics. To address these concerns, we conduct a large-scale study on several SOTA open and closed models. To overcome the limitations of existing evaluations, we introduce GSM-Symbolic, an improved benchmark created from symbolic templates that allow for the generation of a diverse set of questions. GSM-Symbolic enables more controllable evaluations, providing key insights and more reliable metrics for measuring the reasoning capabilities of models.Our findings reveal that LLMs exhibit noticeable variance when responding to different instantiations of the same question. Specifically, the performance of all models declines when only the numerical values in the question are altered in the GSM-Symbolic benchmark. Furthermore, we investigate the fragility of mathematical reasoning in these models and show that their performance significantly deteriorates as the number of clauses in a question increases. We hypothesize that this decline is because current LLMs cannot perform genuine logical reasoning; they replicate reasoning steps from their training data. Adding a single clause that seems relevant to the question causes significant performance drops (up to 65%) across all state-of-the-art models, even though the clause doesn't contribute to the reasoning chain needed for the final answer. Overall, our work offers a more nuanced understanding of LLMs' capabilities and limitations in mathematical reasoning.

Summary

AI-Generated Summary

PDF226November 16, 2024