LLM's Denken Niet Stapsgewijs bij Impliciet Redeneren
LLMs Do Not Think Step-by-step In Implicit Reasoning
November 24, 2024
Auteurs: Yijiong Yu
cs.AI
Samenvatting
Het is algemeen bekend dat Chain-of-Thought de prestaties van LLM's aanzienlijk kan verbeteren bij complexe taken. Echter, omdat dit ook langzamere inferentiesnelheden en hogere computationele kosten met zich meebrengt, hebben veel onderzoeken geprobeerd impliciete CoT te gebruiken, waarbij LLM's niet expliciet de tussenstappen hoeven te genereren. Toch bestaat er nog steeds een kloof tussen hun effectiviteit en typische expliciete CoT-methoden. Dit roept de vraag op of impliciete CoT echt gelijk is aan expliciete CoT. Daarom behandelen we in deze studie deze vraag door middel van experimenten. We onderzoeken de informatie van tussenstappen uit de verborgen toestanden van het model wanneer het impliciete CoT uitvoert. De resultaten geven verrassend genoeg aan dat LLM's nauwelijks nadenken over tussenstappen, wat suggereert dat ze misschien alleen vertrouwen op ervaring in plaats van strikte stapsgewijze redenering. Bovendien vinden we dat de impliciete redeneervaardigheden van LLM's vatbaar zijn voor instabiliteit, wat de noodzaak van expliciete CoT benadrukt om complexe taken effectief te ondersteunen.
English
It has been well-known that Chain-of-Thought can remarkably enhance LLMs'
performance on complex tasks. However, because it also introduces slower
inference speeds and higher computational costs, many researches have attempted
to use implicit CoT, which does not need LLMs to explicitly generate the
intermediate steps. But there is still gap between their efficacy and typical
explicit CoT methods. This leaves us a doubt that, does implicit CoT really
equal to explicit CoT? Therefore, in this study, we address this question
through experiments. We probe the information of intermediate steps from the
model's hidden states when it is performing implicit CoT. The results
surprisingly indicate that LLMs hardly think about intermediate steps,
suggesting they may just rely on experience rather than strict step-by-step
reasoning. Moreover, we find LLMs' implicit reasoning capabilities are
susceptible and unstable, reaffirming the necessity of explicit CoT to
effectively support complex tasks.Summary
AI-Generated Summary