T-pro 2.0: Een efficiënt Russisch hybride-redeneermodel en speelveld
T-pro 2.0: An Efficient Russian Hybrid-Reasoning Model and Playground
December 11, 2025
Auteurs: Dmitrii Stoianov, Danil Taranets, Olga Tsymboi, Ramil Latypov, Almaz Dautov, Vladislav Kruglikov, Nikita Surkov, German Abramov, Pavel Gein, Dmitry Abulkhanov, Mikhail Gashkov, Viktor Zelenkovskiy, Artem Batalov, Aleksandr Medvedev, Anatolii Potapov
cs.AI
Samenvatting
Wij introduceren T-pro 2.0, een open-weight Russisch taalmodel voor hybride redenering en efficiënte inferentie. Het model ondersteunt directe vraagbeantwoording en de generatie van redeneersporen, waarbij gebruik wordt gemaakt van een Cyrillisch-dichte tokenizer en een aangepast EAGLE-pijplijn voor speculatieve decodering om de latentie te verminderen. Om reproduceerbaar en uitbreidbaar onderzoek mogelijk te maken, publiceren we de modelgewichten, de T-Wix 500k-instructiecorpus, de T-Math-redeneerbenchmark en de EAGLE-gewichten op Hugging Face. Deze bronnen stellen gebruikers in staat om redenering in het Russisch te bestuderen en zowel het model als de inferentiepijplijn uit te breiden of aan te passen. Een openbare webdemo biedt toegang tot redenerende en niet-redenerende modi en illustreert de snelheidswinst die door onze inferentiestack wordt behaald in verschillende domeinen. T-pro 2.0 fungeert zo als een toegankelijk open systeem voor het bouwen en evalueren van efficiënte, praktische Russische taalmodeltoepassingen.
English
We introduce T-pro 2.0, an open-weight Russian LLM for hybrid reasoning and efficient inference. The model supports direct answering and reasoning-trace generation, using a Cyrillic-dense tokenizer and an adapted EAGLE speculative-decoding pipeline to reduce latency. To enable reproducible and extensible research, we release the model weights, the T-Wix 500k instruction corpus, the T-Math reasoning benchmark, and the EAGLE weights on Hugging Face. These resources allow users to study Russian-language reasoning and to extend or adapt both the model and the inference pipeline. A public web demo exposes reasoning and non-reasoning modes and illustrates the speedups achieved by our inference stack across domains. T-pro 2.0 thus serves as an accessible open system for building and evaluating efficient, practical Russian LLM applications.