ChatPaper.aiChatPaper

T-pro 2.0 : Un modèle hybride de raisonnement russe efficace et son environnement de développement

T-pro 2.0: An Efficient Russian Hybrid-Reasoning Model and Playground

December 11, 2025
papers.authors: Dmitrii Stoianov, Danil Taranets, Olga Tsymboi, Ramil Latypov, Almaz Dautov, Vladislav Kruglikov, Nikita Surkov, German Abramov, Pavel Gein, Dmitry Abulkhanov, Mikhail Gashkov, Viktor Zelenkovskiy, Artem Batalov, Aleksandr Medvedev, Anatolii Potapov
cs.AI

papers.abstract

Nous présentons T-pro 2.0, un modèle de langage russe à poids ouverts pour le raisonnement hybride et l'inférence efficace. Le modèle prend en charge la réponse directe et la génération de traces de raisonnement, en utilisant un tokeniseur dense en caractères cyrilliques et un pipeline adapté de décodage spéculatif EAGLE pour réduire la latence. Pour permettre une recherche reproductible et extensible, nous publions les poids du modèle, le corpus d'instructions T-Wix 500k, le benchmark de raisonnement T-Math et les poids EAGLE sur Hugging Face. Ces ressources permettent aux utilisateurs d'étudier le raisonnement en langue russe et d'étendre ou d'adapter à la fois le modèle et le pipeline d'inférence. Une démonstration web publique expose les modes avec et sans raisonnement et illustre les accélérations obtenues par notre pile d'inférence dans divers domaines. T-pro 2.0 constitue ainsi un système ouvert accessible pour construire et évaluer des applications pratiques et efficaces de modèles de langage russes.
English
We introduce T-pro 2.0, an open-weight Russian LLM for hybrid reasoning and efficient inference. The model supports direct answering and reasoning-trace generation, using a Cyrillic-dense tokenizer and an adapted EAGLE speculative-decoding pipeline to reduce latency. To enable reproducible and extensible research, we release the model weights, the T-Wix 500k instruction corpus, the T-Math reasoning benchmark, and the EAGLE weights on Hugging Face. These resources allow users to study Russian-language reasoning and to extend or adapt both the model and the inference pipeline. A public web demo exposes reasoning and non-reasoning modes and illustrates the speedups achieved by our inference stack across domains. T-pro 2.0 thus serves as an accessible open system for building and evaluating efficient, practical Russian LLM applications.
PDF601December 13, 2025