T-pro 2.0: 効率的なロシア語ハイブリッド推論モデルとプレイグラウンド
T-pro 2.0: An Efficient Russian Hybrid-Reasoning Model and Playground
December 11, 2025
著者: Dmitrii Stoianov, Danil Taranets, Olga Tsymboi, Ramil Latypov, Almaz Dautov, Vladislav Kruglikov, Nikita Surkov, German Abramov, Pavel Gein, Dmitry Abulkhanov, Mikhail Gashkov, Viktor Zelenkovskiy, Artem Batalov, Aleksandr Medvedev, Anatolii Potapov
cs.AI
要旨
我々は、ハイブリッド推論と効率的な推論を実現するロシア語LLM「T-pro 2.0」を発表します。本モデルは直接回答と推論トレース生成をサポートし、キリル文字に最適化されたトークナイザーと改良版EAGLE speculative decodingパイプラインにより遅延を低減しています。再現性と拡張性を担保するため、モデル重み、T-Wix 500k指示データセット、T-Math推論ベンチマーク、EAGLE重みをHugging Faceで公開。これらのリソースにより、ロシア語推論の研究やモデル・推論パイプラインの拡張が可能となります。公開Webデモでは推論モードと非推論モードを実装し、当社の推論スタックが複数領域で達成する高速化を提示。T-pro 2.0は、効率的で実用的なロシア語LLMアプリケーション構築・評価のためのアクセス可能なオープンシステムとして機能します。
English
We introduce T-pro 2.0, an open-weight Russian LLM for hybrid reasoning and efficient inference. The model supports direct answering and reasoning-trace generation, using a Cyrillic-dense tokenizer and an adapted EAGLE speculative-decoding pipeline to reduce latency. To enable reproducible and extensible research, we release the model weights, the T-Wix 500k instruction corpus, the T-Math reasoning benchmark, and the EAGLE weights on Hugging Face. These resources allow users to study Russian-language reasoning and to extend or adapt both the model and the inference pipeline. A public web demo exposes reasoning and non-reasoning modes and illustrates the speedups achieved by our inference stack across domains. T-pro 2.0 thus serves as an accessible open system for building and evaluating efficient, practical Russian LLM applications.