ChatPaper.aiChatPaper

T-pro 2.0: 효율적인 러시아어 하이브리드 추론 모델 및 플레이그라운드

T-pro 2.0: An Efficient Russian Hybrid-Reasoning Model and Playground

December 11, 2025
저자: Dmitrii Stoianov, Danil Taranets, Olga Tsymboi, Ramil Latypov, Almaz Dautov, Vladislav Kruglikov, Nikita Surkov, German Abramov, Pavel Gein, Dmitry Abulkhanov, Mikhail Gashkov, Viktor Zelenkovskiy, Artem Batalov, Aleksandr Medvedev, Anatolii Potapov
cs.AI

초록

T-pro 2.0은 하이브리드 추론과 효율적 추론을 위한 오픈 웨이트 러시아어 대규모 언어 모델(LLM)을 소개합니다. 본 모델은 키릴 문자 밀집 토크나이저와 지연 시간을 줄이기 위해 개선된 EAGLE 예측 디코딩 파이프라인을 사용하여 직접 답변 생성과 추론 과정 생성 기능을 지원합니다. 재현 가능하고 확장 가능한 연구를 위해 Hugging Face에 모델 가중치, T-Wix 500k 명령어 코퍼스, T-Math 추론 벤치마크, EAGLE 가중치를 공개합니다. 이러한 자원을 통해 사용자들은 러시아어 추론 능력을 연구하고 모델 및 추론 파이프라인을 확장하거나 적용할 수 있습니다. 공개 웹 데모는 추론 모드와 비추론 모드를 제공하며, 다양한 분야에서 우리의 추론 스택이 달성한 속도 향상을 보여줍니다. 따라서 T-pro 2.0은 효율적이고 실용적인 러시아어 LLM 애플리케이션을 구축하고 평가하기 위한 접근성 높은 오픈 시스템 역할을 합니다.
English
We introduce T-pro 2.0, an open-weight Russian LLM for hybrid reasoning and efficient inference. The model supports direct answering and reasoning-trace generation, using a Cyrillic-dense tokenizer and an adapted EAGLE speculative-decoding pipeline to reduce latency. To enable reproducible and extensible research, we release the model weights, the T-Wix 500k instruction corpus, the T-Math reasoning benchmark, and the EAGLE weights on Hugging Face. These resources allow users to study Russian-language reasoning and to extend or adapt both the model and the inference pipeline. A public web demo exposes reasoning and non-reasoning modes and illustrates the speedups achieved by our inference stack across domains. T-pro 2.0 thus serves as an accessible open system for building and evaluating efficient, practical Russian LLM applications.
PDF601December 13, 2025