ChatPaper.aiChatPaper

SoftCoT++: Test-Time Schaalbaarheid met Zachte Ketting-van-Gedachten Redenering

SoftCoT++: Test-Time Scaling with Soft Chain-of-Thought Reasoning

May 16, 2025
Auteurs: Yige Xu, Xu Guo, Zhiwei Zeng, Chunyan Miao
cs.AI

Samenvatting

Test-Time Scaling (TTS) verwijst naar benaderingen die de redeneerprestaties verbeteren door extra rekenkracht toe te wijzen tijdens de inferentie, zonder de parameters van het model aan te passen. Terwijl bestaande TTS-methoden werken in een discrete tokenruimte door meer tussenstappen te genereren, hebben recente studies in Coconut en SoftCoT aangetoond dat denken in de continue latente ruimte de redeneerprestaties verder kan verbeteren. Dergelijke latente gedachten coderen informatieve denkprocessen zonder het informatieverlies dat gepaard gaat met autoregressieve token-generatie, wat een groeiende interesse in redeneren in continue ruimte heeft aangewakkerd. In tegenstelling tot discrete decodering, waarbij herhaalde steekproeven het mogelijk maken om diverse redeneerpaden te verkennen, zijn latente representaties in continue ruimte vast voor een gegeven invoer, wat diverse verkenning beperkt, aangezien alle gedecodeerde paden voortkomen uit dezelfde latente gedachte. Om deze beperking te overwinnen, introduceren we SoftCoT++ om SoftCoT uit te breiden naar het Test-Time Scaling-paradigma door diverse verkenning van denkpaden mogelijk te maken. Specifiek verstoren we latente gedachten via meerdere gespecialiseerde begintokens en passen we contrastief leren toe om diversiteit onder zachte gedachtenrepresentaties te bevorderen. Experimenten over vijf redeneerbenchmarks en twee verschillende LLM-architecturen tonen aan dat SoftCoT++ SoftCoT aanzienlijk verbetert en ook beter presteert dan SoftCoT met self-consistency scaling. Bovendien toont het sterke compatibiliteit met conventionele schaaltechnieken zoals self-consistency. Broncode is beschikbaar op https://github.com/xuyige/SoftCoT.
English
Test-Time Scaling (TTS) refers to approaches that improve reasoning performance by allocating extra computation during inference, without altering the model's parameters. While existing TTS methods operate in a discrete token space by generating more intermediate steps, recent studies in Coconut and SoftCoT have demonstrated that thinking in the continuous latent space can further enhance the reasoning performance. Such latent thoughts encode informative thinking without the information loss associated with autoregressive token generation, sparking increased interest in continuous-space reasoning. Unlike discrete decoding, where repeated sampling enables exploring diverse reasoning paths, latent representations in continuous space are fixed for a given input, which limits diverse exploration, as all decoded paths originate from the same latent thought. To overcome this limitation, we introduce SoftCoT++ to extend SoftCoT to the Test-Time Scaling paradigm by enabling diverse exploration of thinking paths. Specifically, we perturb latent thoughts via multiple specialized initial tokens and apply contrastive learning to promote diversity among soft thought representations. Experiments across five reasoning benchmarks and two distinct LLM architectures demonstrate that SoftCoT++ significantly boosts SoftCoT and also outperforms SoftCoT with self-consistency scaling. Moreover, it shows strong compatibility with conventional scaling techniques such as self-consistency. Source code is available at https://github.com/xuyige/SoftCoT.

Summary

AI-Generated Summary

PDF52May 20, 2025