ChatPaper.aiChatPaper

PATS: Modalità di Commutazione Adattiva del Pensiero a Livello di Processo

PATS: Process-Level Adaptive Thinking Mode Switching

May 25, 2025
Autori: Yi Wang, Junxiao Liu, Shimao Zhang, Jiajun Chen, Shujian Huang
cs.AI

Abstract

I modelli linguistici di grandi dimensioni (LLM) attuali adottano tipicamente una strategia di ragionamento fissa, semplice o complessa, per tutte le domande, indipendentemente dalla loro difficoltà. Questa mancanza di considerazione per la variazione nella complessità del compito e del processo di ragionamento porta a uno squilibrio tra prestazioni ed efficienza. I metodi esistenti cercano di implementare un sistema di commutazione tra pensiero veloce e lento senza addestramento per gestire problemi di diversa difficoltà, ma sono limitati da aggiustamenti di strategia a livello di soluzione troppo grossolani. Per affrontare questo problema, proponiamo un nuovo paradigma di ragionamento: Process-Level Adaptive Thinking Mode Switching (PATS), che consente agli LLM di adattare dinamicamente la loro strategia di ragionamento in base alla difficoltà di ogni passaggio, ottimizzando il bilanciamento tra accuratezza ed efficienza computazionale. Il nostro approccio integra Process Reward Models (PRM) con la ricerca a fascio, incorporando meccanismi di commutazione progressiva della modalità e penalizzazione dei passaggi errati. Esperimenti su diversi benchmark matematici dimostrano che la nostra metodologia raggiunge un'elevata accuratezza mantenendo un uso moderato di token. Questo studio sottolinea l'importanza dell'adattamento della strategia di ragionamento a livello di processo e consapevole della difficoltà, offrendo spunti preziosi per un'inferenza efficiente negli LLM.
English
Current large-language models (LLMs) typically adopt a fixed reasoning strategy, either simple or complex, for all questions, regardless of their difficulty. This neglect of variation in task and reasoning process complexity leads to an imbalance between performance and efficiency. Existing methods attempt to implement training-free fast-slow thinking system switching to handle problems of varying difficulty, but are limited by coarse-grained solution-level strategy adjustments. To address this issue, we propose a novel reasoning paradigm: Process-Level Adaptive Thinking Mode Switching (PATS), which enables LLMs to dynamically adjust their reasoning strategy based on the difficulty of each step, optimizing the balance between accuracy and computational efficiency. Our approach integrates Process Reward Models (PRMs) with Beam Search, incorporating progressive mode switching and bad-step penalty mechanisms. Experiments on diverse mathematical benchmarks demonstrate that our methodology achieves high accuracy while maintaining moderate token usage. This study emphasizes the significance of process-level, difficulty-aware reasoning strategy adaptation, offering valuable insights into efficient inference for LLMs.
PDF472May 27, 2025