T-pro 2.0: Ein effizientes russisches Hybrid-Reasoning-Modell und Entwicklungsumgebung
T-pro 2.0: An Efficient Russian Hybrid-Reasoning Model and Playground
December 11, 2025
papers.authors: Dmitrii Stoianov, Danil Taranets, Olga Tsymboi, Ramil Latypov, Almaz Dautov, Vladislav Kruglikov, Nikita Surkov, German Abramov, Pavel Gein, Dmitry Abulkhanov, Mikhail Gashkov, Viktor Zelenkovskiy, Artem Batalov, Aleksandr Medvedev, Anatolii Potapov
cs.AI
papers.abstract
Wir stellen T-pro 2.0 vor, ein Open-Weight-Russisches LLM für hybrides Reasoning und effizientes Inferencing. Das Modell unterstützt sowohl direkte Antwortgenerierung als auch die Erzeugung von Reasoning-Traces und nutzt dazu einen kyrillisch-dichten Tokenizer sowie eine angepasste EAGLE-Pipeline für spekulatives Decodieren zur Latenzreduzierung. Um reproduzierbare und erweiterbare Forschung zu ermöglichen, veröffentlichen wir die Modellgewichte, den T-Wix-500k-Instruktionskorpus, den T-Math-Reasoning-Benchmark und die EAGLE-Gewichte auf Hugging Face. Diese Ressourcen ermöglichen es Nutzern, russischsprachiges Reasoning zu erforschen und sowohl das Modell als auch die Inferenz-Pipeline zu erweitern oder anzupassen. Eine öffentliche Web-Demo stellt Reasoning- und Non-Reasoning-Modi vor und veranschaulicht die Beschleunigungseffekte unseres Inferenz-Stacks in verschiedenen Domänen. T-pro 2.0 dient somit als zugängliches Open-System zum Aufbau und zur Evaluation effizienter, praktischer russischer LLM-Anwendungen.
English
We introduce T-pro 2.0, an open-weight Russian LLM for hybrid reasoning and efficient inference. The model supports direct answering and reasoning-trace generation, using a Cyrillic-dense tokenizer and an adapted EAGLE speculative-decoding pipeline to reduce latency. To enable reproducible and extensible research, we release the model weights, the T-Wix 500k instruction corpus, the T-Math reasoning benchmark, and the EAGLE weights on Hugging Face. These resources allow users to study Russian-language reasoning and to extend or adapt both the model and the inference pipeline. A public web demo exposes reasoning and non-reasoning modes and illustrates the speedups achieved by our inference stack across domains. T-pro 2.0 thus serves as an accessible open system for building and evaluating efficient, practical Russian LLM applications.