ChatPaper.aiChatPaper

De Invloed van de Lengte van Redeneerstappen op Grote Taalmodellen

The Impact of Reasoning Step Length on Large Language Models

January 10, 2024
Auteurs: Mingyu Jin, Qinkai Yu, Dong shu, Haiyan Zhao, Wenyue Hua, Yanda Meng, Yongfeng Zhang, Mengnan Du
cs.AI

Samenvatting

Chain of Thought (CoT) is van groot belang bij het verbeteren van de redeneervaardigheden van grote taalmodelen (LLMs). De correlatie tussen de effectiviteit van CoT en de lengte van de redeneerstappen in prompts blijft echter grotendeels onbekend. Om hier meer inzicht in te krijgen, hebben we verschillende empirische experimenten uitgevoerd om deze relaties te onderzoeken. Specifiek hebben we experimenten ontworpen waarbij de redeneerstappen binnen CoT-demonstraties worden uitgebreid en gecomprimeerd, terwijl alle andere factoren constant blijven. We hebben de volgende belangrijke bevindingen. Ten eerste geven de resultaten aan dat het verlengen van de redeneerstappen in prompts, zelfs zonder nieuwe informatie toe te voegen, de redeneervaardigheden van LLMs aanzienlijk verbetert over meerdere datasets. Aan de andere kant vermindert het verkorten van de redeneerstappen, zelfs wanneer de belangrijkste informatie behouden blijft, de redeneervaardigheden van modellen aanzienlijk. Deze bevinding benadrukt het belang van het aantal stappen in CoT-prompts en biedt praktische richtlijnen om het potentieel van LLMs beter te benutten in complexe probleemoplossingsscenario's. Ten tweede hebben we ook de relatie onderzocht tussen de prestaties van CoT en de redeneringen die in demonstraties worden gebruikt. Verrassend genoeg laten de resultaten zien dat zelfs incorrecte redeneringen gunstige resultaten kunnen opleveren als ze de vereiste lengte van de inferentie behouden. Ten derde hebben we geobserveerd dat de voordelen van het vergroten van redeneerstappen taakafhankelijk zijn: eenvoudigere taken vereisen minder stappen, terwijl complexe taken aanzienlijk profiteren van langere inferentiesequenties.
English
Chain of Thought (CoT) is significant in improving the reasoning abilities of large language models (LLMs). However, the correlation between the effectiveness of CoT and the length of reasoning steps in prompts remains largely unknown. To shed light on this, we have conducted several empirical experiments to explore the relations. Specifically, we design experiments that expand and compress the rationale reasoning steps within CoT demonstrations, while keeping all other factors constant. We have the following key findings. First, the results indicate that lengthening the reasoning steps in prompts, even without adding new information into the prompt, considerably enhances LLMs' reasoning abilities across multiple datasets. Alternatively, shortening the reasoning steps, even while preserving the key information, significantly diminishes the reasoning abilities of models. This finding highlights the importance of the number of steps in CoT prompts and provides practical guidance to make better use of LLMs' potential in complex problem-solving scenarios. Second, we also investigated the relationship between the performance of CoT and the rationales used in demonstrations. Surprisingly, the result shows that even incorrect rationales can yield favorable outcomes if they maintain the requisite length of inference. Third, we observed that the advantages of increasing reasoning steps are task-dependent: simpler tasks require fewer steps, whereas complex tasks gain significantly from longer inference sequences.
PDF182February 8, 2026