ChatPaper.aiChatPaper

T-pro 2.0: Un modello ibrido di ragionamento russo efficiente e un ambiente di sperimentazione

T-pro 2.0: An Efficient Russian Hybrid-Reasoning Model and Playground

December 11, 2025
Autori: Dmitrii Stoianov, Danil Taranets, Olga Tsymboi, Ramil Latypov, Almaz Dautov, Vladislav Kruglikov, Nikita Surkov, German Abramov, Pavel Gein, Dmitry Abulkhanov, Mikhail Gashkov, Viktor Zelenkovskiy, Artem Batalov, Aleksandr Medvedev, Anatolii Potapov
cs.AI

Abstract

Presentiamo T-pro 2.0, un LLM russo open-weight per il ragionamento ibrido e l'inferenza efficiente. Il modello supporta la risposta diretta e la generazione di tracce di ragionamento, utilizzando un tokenizer denso in caratteri cirillici e una pipeline adattata di speculative decoding EAGLE per ridurre la latenza. Per consentire una ricerca riproducibile ed estensibile, rilasciamo i pesi del modello, il corpus di istruzioni T-Wix da 500k elementi, il benchmark di ragionamento T-Math e i pesi EAGLE su Hugging Face. Queste risorse permettono agli utenti di studiare il ragionamento in lingua russa e di estendere o adattare sia il modello che la pipeline di inferenza. Una demo web pubblica espone le modalità con e senza ragionamento e illustra i miglioramenti di velocità ottenuti dalla nostra stack di inferenza in diversi domini. T-pro 2.0 si propone quindi come un sistema aperto e accessibile per costruire e valutare applicazioni pratiche ed efficienti di LLM per la lingua russa.
English
We introduce T-pro 2.0, an open-weight Russian LLM for hybrid reasoning and efficient inference. The model supports direct answering and reasoning-trace generation, using a Cyrillic-dense tokenizer and an adapted EAGLE speculative-decoding pipeline to reduce latency. To enable reproducible and extensible research, we release the model weights, the T-Wix 500k instruction corpus, the T-Math reasoning benchmark, and the EAGLE weights on Hugging Face. These resources allow users to study Russian-language reasoning and to extend or adapt both the model and the inference pipeline. A public web demo exposes reasoning and non-reasoning modes and illustrates the speedups achieved by our inference stack across domains. T-pro 2.0 thus serves as an accessible open system for building and evaluating efficient, practical Russian LLM applications.
PDF601December 13, 2025