ChatPaper.aiChatPaper

Конец ручного декодирования: на пути к по-настоящему сквозным языковым моделям

The End of Manual Decoding: Towards Truly End-to-End Language Models

October 30, 2025
Авторы: Zhichao Wang, Dongyang Ma, Xinting Huang, Deng Cai, Tian Lan, Jiahao Xu, Haitao Mi, Xiaoying Tang, Yan Wang
cs.AI

Аннотация

Маркировка LLM как «сквозных» (end-to-end) является некорректной. На практике они зависят от недифференцируемого процесса декодирования, требующего трудоёмкой ручной настройки гиперпараметров, таких как температура и top-p. В данной статье представлена AutoDeco — новая архитектура, которая обеспечивает по-настоящему «сквозное» генеративное моделирование за счёт обучения управлению собственной стратегией декодирования. Мы дополняем стандартный трансформер лёгкими выходными слоями, которые на каждом шаге динамически предсказывают контекстно-зависимые значения температуры и top-p вместе с логитами следующего токена. Такой подход превращает декодирование в параметрический процесс на уровне токенов, позволяя модели саморегулировать стратегию сэмплирования за один прямой проход. В результате масштабных экспериментов на восьми бенчмарках мы показываем, что AutoDeco не только существенно превосходит стандартные стратегии декодирования, но и достигает результатов, сопоставимых с подобранным вручную оракулом-бейзлайном, полученным путём «взлома тестового набора» — практического верхнего предела для любого статического метода. Важнее всего, что мы обнаружили emergent-способность к управлению декодированием на основе инструкций: модель учится интерпретировать команды на естественном языке (например, «генерировать с низкой случайностью») и подстраивать предсказываемые температуру и top-p на уровне отдельных токенов, открывая новую парадигму для управляемого и интерактивного декодирования в LLM.
English
The "end-to-end" label for LLMs is a misnomer. In practice, they depend on a non-differentiable decoding process that requires laborious, hand-tuning of hyperparameters like temperature and top-p. This paper introduces AutoDeco, a novel architecture that enables truly "end-to-end" generation by learning to control its own decoding strategy. We augment the standard transformer with lightweight heads that, at each step, dynamically predict context-specific temperature and top-p values alongside the next-token logits. This approach transforms decoding into a parametric, token-level process, allowing the model to self-regulate its sampling strategy within a single forward pass. Through extensive experiments on eight benchmarks, we demonstrate that AutoDeco not only significantly outperforms default decoding strategies but also achieves performance comparable to an oracle-tuned baseline derived from "hacking the test set"-a practical upper bound for any static method. Crucially, we uncover an emergent capability for instruction-based decoding control: the model learns to interpret natural language commands (e.g., "generate with low randomness") and adjusts its predicted temperature and top-p on a token-by-token basis, opening a new paradigm for steerable and interactive LLM decoding.
PDF1145December 2, 2025