ChatPaper.aiChatPaper

Non Pensarci Troppo: Una Rassegna sui Modelli di Ragionamento su Grande Scala di Stile R1 Efficienti

Don't Overthink It: A Survey of Efficient R1-style Large Reasoning Models

August 4, 2025
Autori: Linan Yue, Yichao Du, Yizhi Wang, Weibo Gao, Fangzhou Yao, Li Wang, Ye Liu, Ziyu Xu, Qi Liu, Shimin Di, Min-Ling Zhang
cs.AI

Abstract

Recentemente, i Large Reasoning Models (LRM) sono gradualmente diventati un punto focale della ricerca grazie alle loro prestazioni eccezionali nella gestione di compiti complessi. Tra questi, DeepSeek R1 ha attirato una significativa attenzione per le sue prestazioni straordinarie e la natura open-source, spingendo i progressi nella ricerca sugli LRM di tipo R1. A differenza dei tradizionali Large Language Models (LLM), questi modelli migliorano le capacità di deduzione logica e di decisione durante il ragionamento incorporando meccanismi come la lunga catena di pensiero e l'autoriflessione attraverso l'apprendimento per rinforzo. Tuttavia, con l'ampia applicazione di questi modelli, il problema del sovrapensiero è gradualmente emerso. Nello specifico, quando generano risposte, questi modelli spesso costruiscono catene di ragionamento eccessivamente lunghe con passaggi ridondanti o ripetitivi, il che porta a una ridotta efficienza del ragionamento e può influire sull'accuratezza della risposta finale. A tal fine, sono stati proposti vari metodi di ragionamento efficiente, con l'obiettivo di ridurre la lunghezza dei percorsi di ragionamento senza compromettere le prestazioni del modello e la capacità di ragionamento. Esaminando sistematicamente i progressi attuali della ricerca nel campo dei metodi di ragionamento efficiente, categorizziamo i lavori esistenti in due direzioni principali basate sull'ottica dell'ottimizzazione di un singolo modello rispetto alla collaborazione tra modelli: (1) Ragionamento Efficiente con Singolo Modello, che si concentra sul miglioramento dell'efficienza del ragionamento dei singoli modelli; e (2) Ragionamento Efficiente con Collaborazione tra Modelli, che esplora l'ottimizzazione dei percorsi di ragionamento attraverso la collaborazione tra più modelli. Inoltre, manteniamo un repository GitHub pubblico che traccia i progressi più recenti nei metodi di ragionamento efficiente.
English
Recently, Large Reasoning Models (LRMs) have gradually become a research hotspot due to their outstanding performance in handling complex tasks. Among them, DeepSeek R1 has garnered significant attention for its exceptional performance and open-source nature, driving advancements in the research of R1-style LRMs. Unlike traditional Large Language Models (LLMs), these models enhance logical deduction and decision-making capabilities during reasoning by incorporating mechanisms such as long chain-of-thought and self-reflection through reinforcement learning. However, with the widespread application of these models, the problem of overthinking has gradually emerged. Specifically, when generating answers, these models often construct excessively long reasoning chains with redundant or repetitive steps, which leads to reduced reasoning efficiency and may affect the accuracy of the final answer. To this end, various efficient reasoning methods have been proposed, aiming to reduce the length of reasoning paths without compromising model performance and reasoning capability. By reviewing the current research advancements in the field of efficient reasoning methods systematically, we categorize existing works into two main directions based on the lens of single-model optimization versus model collaboration: (1) Efficient Reasoning with Single Model, which focuses on improving the reasoning efficiency of individual models; and (2) Efficient Reasoning with Model Collaboration, which explores optimizing reasoning paths through collaboration among multiple models. Besides, we maintain a public GitHub repository that tracks the latest progress in efficient reasoning methods.
PDF192August 8, 2025