ChatPaper.aiChatPaper

SWI: Spreken met Intentie in Grote Taalmodellen

SWI: Speaking with Intent in Large Language Models

March 27, 2025
Auteurs: Yuwei Yin, EunJeong Hwang, Giuseppe Carenini
cs.AI

Samenvatting

Intentie, doorgaans duidelijk geformuleerd en gepland, fungeert als een cognitief raamwerk voor redeneren en probleemoplossing. Dit artikel introduceert het concept van Spreken met Intentie (SWI) in grote taalmodellen (LLMs), waarbij de expliciet gegenereerde intentie de onderliggende bedoeling van het model omvat en hoogwaardige planning biedt om de daaropvolgende analyse en communicatie te sturen. Door bewuste en doelgerichte gedachten in de menselijke geest na te bootsen, wordt verondersteld dat SWI de redeneervaardigheden en generatiekwaliteit van LLMs verbetert. Uitgebreide experimenten op wiskundige redeneerbenchmarks tonen consistent de superioriteit van Spreken met Intentie aan ten opzichte van Baseline (d.w.z., generatie zonder expliciete intentie). Bovendien presteert SWI beter dan antwoord-trigger promptmethoden zoals Chain-of-Thought en Plan-and-Solve en behoudt het competitieve prestaties met de sterke methode ARR (Analyzing, Retrieving, and Reasoning). Daarnaast worden de effectiviteit en generaliseerbaarheid van SWI bevestigd op redeneerintensieve vraag-antwoord (QA) en tekstsamenvattingsbenchmarks, waarbij SWI consistente verbeteringen brengt ten opzichte van Baseline-generatie. Bij tekstsamenvattingen vertonen SWI-gegenereerde samenvattingen grotere nauwkeurigheid, bondigheid en feitelijke correctheid, met minder hallucinaties. Bovendien bevestigen menselijke evaluaties de samenhang, effectiviteit en interpreteerbaarheid van de intentie geproduceerd door SWI. Deze proof-of-concept studie opent een nieuwe weg voor het verbeteren van de redeneervaardigheden van LLMs met cognitieve noties.
English
Intent, typically clearly formulated and planned, functions as a cognitive framework for reasoning and problem-solving. This paper introduces the concept of Speaking with Intent (SWI) in large language models (LLMs), where the explicitly generated intent encapsulates the model's underlying intention and provides high-level planning to guide subsequent analysis and communication. By emulating deliberate and purposeful thoughts in the human mind, SWI is hypothesized to enhance the reasoning capabilities and generation quality of LLMs. Extensive experiments on mathematical reasoning benchmarks consistently demonstrate the superiority of Speaking with Intent over Baseline (i.e., generation without explicit intent). Moreover, SWI outperforms answer-trigger prompting methods Chain-of-Thought and Plan-and-Solve and maintains competitive performance with the strong method ARR (Analyzing, Retrieving, and Reasoning). Additionally, the effectiveness and generalizability of SWI are solidified on reasoning-intensive question answering (QA) and text summarization benchmarks, where SWI brings consistent improvement to the Baseline generation. In text summarization, SWI-generated summaries exhibit greater accuracy, conciseness, and factual correctness, with fewer hallucinations. Furthermore, human evaluations verify the coherence, effectiveness, and interpretability of the intent produced by SWI. This proof-of-concept study creates a novel avenue for enhancing LLMs' reasoning abilities with cognitive notions.

Summary

AI-Generated Summary

PDF22March 31, 2025