Expansion de la puissance de calcul au moment du test avec un raisonnement latent : une approche de profondeur récurrenteScaling up Test-Time Compute with Latent Reasoning: A Recurrent Depth
Approach
Nous étudions une nouvelle architecture de modèle de langage capable de mettre à l'échelle le calcul au moment du test en raisonnant implicitement dans un espace latent. Notre modèle fonctionne en itérant un bloc récurrent, se déroulant ainsi à une profondeur arbitraire au moment du test. Cela contraste avec les modèles de raisonnement classiques qui mettent à l'échelle le calcul en produisant plus de jetons. Contrairement aux approches basées sur la chaîne de pensée, notre approche ne nécessite pas de données d'entraînement spécialisées, peut fonctionner avec de petites fenêtres contextuelles, et peut capturer des types de raisonnement qui ne sont pas facilement représentés en mots. Nous mettons à l'échelle un modèle de preuve de concept à 3,5 milliards de paramètres et 800 milliards de jetons. Nous montrons que le modèle résultant peut améliorer ses performances sur des bancs d'essai de raisonnement, parfois de manière spectaculaire, jusqu'à une charge de calcul équivalente à 50 milliards de paramètres.