ChatPaper.aiChatPaper

FINEREASON: Het evalueren en verbeteren van LLM's doelbewuste redenering door middel van reflectief puzzeloplossen

FINEREASON: Evaluating and Improving LLMs' Deliberate Reasoning through Reflective Puzzle Solving

February 27, 2025
Auteurs: Guizhen Chen, Weiwen Xu, Hao Zhang, Hou Pong Chan, Chaoqun Liu, Lidong Bing, Deli Zhao, Anh Tuan Luu, Yu Rong
cs.AI

Samenvatting

Veel uitdagende redeneertaken vereisen niet alleen snelle, intuïtieve reacties, maar ook een meer doordachte, meerstappenbenadering. Recente vooruitgang in grote taalmodellen (TTM's) benadrukt een belangrijke verschuiving van de "Systeem 1" manier van snelle reacties naar de "Systeem 2" stijl van reflectie-en-correctie probleemoplossing. Huidige benchmarks vertrouwen echter zwaar op de nauwkeurigheid van het eindantwoord, waardoor veel van de tussenliggende redeneerstappen van een model ongeëxamineerd blijven. Dit faalt om de mogelijkheid van het model om fouten te overdenken en te corrigeren binnen het redeneerproces te beoordelen. Om deze kloof te overbruggen, introduceren we FINEREASON, een logische puzzelbenchmark voor een gedetailleerde evaluatie van de redeneermogelijkheden van TTM's. Elke puzzel kan worden opgesplitst in atomaire stappen, waardoor het ideaal is voor een grondige validatie van tussenliggende correctheid. Voortbouwend hierop introduceren we twee taken: statuscontrole en statusovergang, voor een uitgebreide evaluatie van hoe modellen de huidige situatie beoordelen en de volgende zet plannen. Om breder onderzoek te ondersteunen, bieden we ook een puzzeltrainingsset aan die gericht is op het verbeteren van de prestaties op algemene wiskundige taken. We tonen aan dat modellen die zijn getraind op onze statuscontrole- en overgangsgegevens verbeteringen in wiskundig redeneren laten zien tot wel 5,1% op GSM8K.
English
Many challenging reasoning tasks require not just rapid, intuitive responses, but a more deliberate, multi-step approach. Recent progress in large language models (LLMs) highlights an important shift from the "System 1" way of quick reactions to the "System 2" style of reflection-and-correction problem solving. However, current benchmarks heavily rely on the final-answer accuracy, leaving much of a model's intermediate reasoning steps unexamined. This fails to assess the model's ability to reflect and rectify mistakes within the reasoning process. To bridge this gap, we introduce FINEREASON, a logic-puzzle benchmark for fine-grained evaluation of LLMs' reasoning capabilities. Each puzzle can be decomposed into atomic steps, making it ideal for rigorous validation of intermediate correctness. Building on this, we introduce two tasks: state checking, and state transition, for a comprehensive evaluation of how models assess the current situation and plan the next move. To support broader research, we also provide a puzzle training set aimed at enhancing performance on general mathematical tasks. We show that models trained on our state checking and transition data demonstrate gains in math reasoning by up to 5.1% on GSM8K.

Summary

AI-Generated Summary

PDF242February 28, 2025