ChatPaper.aiChatPaper

Il tuo modello è davvero un buon ragionatore matematico? Valutare il ragionamento matematico con Checklist

Is Your Model Really A Good Math Reasoner? Evaluating Mathematical Reasoning with Checklist

July 11, 2024
Autori: Zihao Zhou, Shudong Liu, Maizhen Ning, Wei Liu, Jindong Wang, Derek F. Wong, Xiaowei Huang, Qiufeng Wang, Kaizhu Huang
cs.AI

Abstract

La capacità eccezionale di ragionamento matematico è una delle caratteristiche chiave che dimostrano la potenza dei grandi modelli linguistici (LLM). Come definire e valutare in modo completo le abilità matematiche degli LLM, e persino riflettere l'esperienza dell'utente in scenari reali, è emerso come un problema critico. Gli attuali benchmark si concentrano prevalentemente sulle capacità di risoluzione dei problemi, il che presenta un rischio sostanziale di overfitting del modello e non rappresenta accuratamente le genuine capacità di ragionamento matematico. In questo articolo, sosteniamo che se un modello comprende veramente un problema, dovrebbe essere robustamente e prontamente applicabile a una vasta gamma di compiti. Motivati da ciò, introduciamo MATHCHECK, una checklist ben progettata per testare la generalizzazione dei compiti e la robustezza del ragionamento, nonché uno strumento automatico per generare checklist in modo efficiente. MATHCHECK include molteplici compiti di ragionamento matematico e tipi di test di robustezza per facilitare una valutazione completa sia delle abilità di ragionamento matematico che dei test comportamentali. Utilizzando MATHCHECK, sviluppiamo MATHCHECK-GSM e MATHCHECK-GEO per valutare rispettivamente le capacità di ragionamento testuale matematico e di ragionamento multimodale, servendo come versioni aggiornate di benchmark come GSM8k, GeoQA, UniGeo e Geometry3K. Adottiamo MATHCHECK-GSM e MATHCHECK-GEO per valutare oltre 20 LLM e 11 MLLM, valutando le loro capacità complessive di ragionamento matematico. I nostri risultati dimostrano che mentre LLM all'avanguardia come GPT-4o continuano a eccellere in varie abilità sulla checklist, molte altre famiglie di modelli mostrano un significativo declino. Ulteriori esperimenti indicano che, rispetto ai tradizionali benchmark matematici, MATHCHECK riflette meglio le vere abilità matematiche e rappresenta l'intelligenza matematica in modo più lineare, supportando così il nostro design. Sul nostro MATHCHECK, possiamo facilmente condurre analisi comportamentali dettagliate per investigare a fondo i modelli.
English
Exceptional mathematical reasoning ability is one of the key features that demonstrate the power of large language models (LLMs). How to comprehensively define and evaluate the mathematical abilities of LLMs, and even reflect the user experience in real-world scenarios, has emerged as a critical issue. Current benchmarks predominantly concentrate on problem-solving capabilities, which presents a substantial risk of model overfitting and fails to accurately represent genuine mathematical reasoning abilities. In this paper, we argue that if a model really understands a problem, it should be robustly and readily applied across a diverse array of tasks. Motivated by this, we introduce MATHCHECK, a well-designed checklist for testing task generalization and reasoning robustness, as well as an automatic tool to generate checklists efficiently. MATHCHECK includes multiple mathematical reasoning tasks and robustness test types to facilitate a comprehensive evaluation of both mathematical reasoning ability and behavior testing. Utilizing MATHCHECK, we develop MATHCHECK-GSM and MATHCHECK-GEO to assess mathematical textual reasoning and multi-modal reasoning capabilities, respectively, serving as upgraded versions of benchmarks including GSM8k, GeoQA, UniGeo, and Geometry3K. We adopt MATHCHECK-GSM and MATHCHECK-GEO to evaluate over 20 LLMs and 11 MLLMs, assessing their comprehensive mathematical reasoning abilities. Our results demonstrate that while frontier LLMs like GPT-4o continue to excel in various abilities on the checklist, many other model families exhibit a significant decline. Further experiments indicate that, compared to traditional math benchmarks, MATHCHECK better reflects true mathematical abilities and represents mathematical intelligence more linearly, thereby supporting our design. On our MATHCHECK, we can easily conduct detailed behavior analysis to deeply investigate models.
PDF234November 28, 2024