Обучение больших языковых моделей для рассуждений в непрерывном латентном пространствеTraining Large Language Models to Reason in a Continuous Latent Space
Большие языковые модели (LLM) ограничены возможностью рассуждать в "языковом пространстве", где они обычно выражают процесс рассуждения цепочкой мыслей (CoT) для решения сложной проблемы рассуждения. Однако мы утверждаем, что языковое пространство не всегда оптимально для рассуждения. Например, большинство словесных токенов предназначены в основном для текстовой связности и не являются существенными для рассуждения, в то время как некоторые критические токены требуют сложного планирования и представляют собой огромные вызовы для LLM. Для исследования потенциала рассуждения LLM в неограниченном латентном пространстве вместо использования естественного языка мы представляем новую парадигму Coconut (Цепочка Непрерывных Мыслей). Мы используем последнее скрытое состояние LLM в качестве представления состояния рассуждения (называемого "непрерывными мыслями"). Вместо декодирования этого в словесный токен мы подаем его обратно в LLM как встраивание последующего ввода напрямую в непрерывном пространстве. Эксперименты показывают, что Coconut может эффективно дополнять LLM на нескольких задачах рассуждения. Эта новая латентная парадигма рассуждения приводит к возникновению продвинутых шаблонов рассуждения: непрерывные мысли могут кодировать несколько альтернативных следующих шагов рассуждения, позволяя модели выполнять поиск в ширину (BFS) для решения проблемы, вместо преждевременного принятия решения о единственном детерминированном пути, как CoT. Coconut превосходит CoT в некоторых логических задачах рассуждения, требующих значительного возврата назад во время планирования, с меньшим количеством мысленных токенов во время вывода. Эти результаты демонстрируют перспективы латентного рассуждения и предлагают ценные идеи для будущих исследований.