ChatPaper.aiChatPaper

SQuARE: Motore di Ragionamento per la Risposta Sequenziale per un Miglioramento della Catena di Pensiero nei Grandi Modelli Linguistici

SQuARE: Sequential Question Answering Reasoning Engine for Enhanced Chain-of-Thought in Large Language Models

February 13, 2025
Autori: Daniel Fleischer, Moshe Berchansky, Gad Markovits, Moshe Wasserblat
cs.AI

Abstract

Nel campo in rapida evoluzione dell'Elaborazione del Linguaggio Naturale, i Grandi Modelli Linguistici (LLM) sono incaricati di sfide di ragionamento sempre più complesse. Metodi tradizionali come la sollecitazione a catena di pensiero hanno mostrato promesse ma spesso non riescono a sfruttare appieno le capacità di ragionamento di un modello. Questo articolo introduce SQuARE (Sequential Question Answering Reasoning Engine), una nuova tecnica di sollecitazione progettata per migliorare il ragionamento attraverso un paradigma di auto-interrogazione. Basandosi sui framework di CoT, SQuARE sollecita i modelli a generare e risolvere diverse domande ausiliarie prima di affrontare la query principale, promuovendo una più approfondita esplorazione dei vari aspetti di un argomento. Le nostre ampie valutazioni, condotte con i modelli Llama 3 e GPT-4o su diversi set di dati di domande e risposte, dimostrano che SQuARE supera significativamente le tradizionali sollecitazioni di CoT e i metodi esistenti di riformulazione e risposta. Decomponendo sistematicamente le query, SQuARE avanza le capacità dei LLM nelle attività di ragionamento. Il codice è disponibile pubblicamente su https://github.com/IntelLabs/RAG-FiT/tree/square.
English
In the rapidly evolving field of Natural Language Processing, Large Language Models (LLMs) are tasked with increasingly complex reasoning challenges. Traditional methods like chain-of-thought prompting have shown promise but often fall short in fully leveraging a model's reasoning capabilities. This paper introduces SQuARE (Sequential Question Answering Reasoning Engine), a novel prompting technique designed to improve reasoning through a self-interrogation paradigm. Building upon CoT frameworks, SQuARE prompts models to generate and resolve multiple auxiliary questions before tackling the main query, promoting a more thorough exploration of various aspects of a topic. Our expansive evaluations, conducted with Llama 3 and GPT-4o models across multiple question-answering datasets, demonstrate that SQuARE significantly surpasses traditional CoT prompts and existing rephrase-and-respond methods. By systematically decomposing queries, SQuARE advances LLM capabilities in reasoning tasks. The code is publicly available at https://github.com/IntelLabs/RAG-FiT/tree/square.

Summary

AI-Generated Summary

PDF162February 14, 2025