ChatPaper.aiChatPaper

潜在推論を用いたテスト時計算のスケーリングアップ:再帰的深層アプローチ

Scaling up Test-Time Compute with Latent Reasoning: A Recurrent Depth Approach

February 7, 2025
著者: Jonas Geiping, Sean McLeish, Neel Jain, John Kirchenbauer, Siddharth Singh, Brian R. Bartoldson, Bhavya Kailkhura, Abhinav Bhatele, Tom Goldstein
cs.AI

要旨

我々は、潜在空間で推論を暗黙的に行うことで、テスト時の計算をスケーリングすることができる新しい言語モデルアーキテクチャを研究しています。当該モデルは、再帰ブロックを反復することによって動作し、テスト時に任意の深さまで展開されます。これは、より多くのトークンを生成することで計算をスケーリングする主流の推論モデルとは対照的です。思考の連鎖に基づくアプローチとは異なり、当該アプローチは特別なトレーニングデータを必要とせず、小さなコンテキストウィンドウで動作し、単語で簡単に表現できない種類の推論を捉えることができます。私たちは、35億のパラメータと8000億のトークンにスケールした概念実証モデルを提示します。その結果のモデルは、推論のベンチマークでのパフォーマンスを向上させることができ、時には50億のパラメータに相当する計算負荷まで劇的に向上することを示します。
English
We study a novel language model architecture that is capable of scaling test-time computation by implicitly reasoning in latent space. Our model works by iterating a recurrent block, thereby unrolling to arbitrary depth at test-time. This stands in contrast to mainstream reasoning models that scale up compute by producing more tokens. Unlike approaches based on chain-of-thought, our approach does not require any specialized training data, can work with small context windows, and can capture types of reasoning that are not easily represented in words. We scale a proof-of-concept model to 3.5 billion parameters and 800 billion tokens. We show that the resulting model can improve its performance on reasoning benchmarks, sometimes dramatically, up to a computation load equivalent to 50 billion parameters.

Summary

AI-Generated Summary

PDF14012February 10, 2025