T-pro 2.0: Un modelo híbrido de razonamiento en ruso eficiente y entorno de pruebas
T-pro 2.0: An Efficient Russian Hybrid-Reasoning Model and Playground
December 11, 2025
Autores: Dmitrii Stoianov, Danil Taranets, Olga Tsymboi, Ramil Latypov, Almaz Dautov, Vladislav Kruglikov, Nikita Surkov, German Abramov, Pavel Gein, Dmitry Abulkhanov, Mikhail Gashkov, Viktor Zelenkovskiy, Artem Batalov, Aleksandr Medvedev, Anatolii Potapov
cs.AI
Resumen
Presentamos T-pro 2.0, un modelo de lenguaje grande (LLM) ruso de pesos abiertos para razonamiento híbrido e inferencia eficiente. El modelo admite respuestas directas y la generación de trazas de razonamiento, utilizando un tokenizador denso en cirílico y una canalización de decodificación especulativa EAGLE adaptada para reducir la latencia. Para facilitar una investigación reproducible y extensible, publicamos los pesos del modelo, el corpus de instrucciones T-Wix de 500k, el benchmark de razonamiento T-Math y los pesos de EAGLE en Hugging Face. Estos recursos permiten a los usuarios estudiar el razonamiento en lengua rusa y extender o adaptar tanto el modelo como la canalización de inferencia. Una demo web pública expone los modos de razonamiento y no razonamiento e ilustra las aceleraciones logradas por nuestra pila de inferencia en diversos dominios. Por lo tanto, T-pro 2.0 sirve como un sistema abierto accesible para construir y evaluar aplicaciones eficientes y prácticas de LLM en ruso.
English
We introduce T-pro 2.0, an open-weight Russian LLM for hybrid reasoning and efficient inference. The model supports direct answering and reasoning-trace generation, using a Cyrillic-dense tokenizer and an adapted EAGLE speculative-decoding pipeline to reduce latency. To enable reproducible and extensible research, we release the model weights, the T-Wix 500k instruction corpus, the T-Math reasoning benchmark, and the EAGLE weights on Hugging Face. These resources allow users to study Russian-language reasoning and to extend or adapt both the model and the inference pipeline. A public web demo exposes reasoning and non-reasoning modes and illustrates the speedups achieved by our inference stack across domains. T-pro 2.0 thus serves as an accessible open system for building and evaluating efficient, practical Russian LLM applications.