ChatPaper.aiChatPaper

Усовершенствование моделирования польского языка за счет оптимизации токенизатора в сериях Bielik v3 7B и 11B

Advancing Polish Language Modeling through Tokenizer Optimization in the Bielik v3 7B and 11B Series

April 12, 2026
Авторы: Krzysztof Ociepa, Łukasz Flis, Remigiusz Kinas, Krzysztof Wróbel, Adrian Gwoździej
cs.AI

Аннотация

Разработка серии моделей Bielik v3 PL, включающей варианты с 7 и 11 миллиардами параметров, представляет собой важную веху в области оптимизации больших языковых моделей (LLM) для конкретных языков. Хотя универсальные модели часто демонстрируют впечатляющие мультиязыковые возможности, они нередко страдают от фундаментальной архитектурной неэффективности: использования универсальных токенизаторов. Эти токенизаторы, обычно созданные для охвата широкого спектра языков, зачастую не способны уловить морфологические нюансы таких конкретных языков, как польский, что приводит к повышенным коэффициентам фертильности, росту затрат на вывод и сокращению эффективного размера контекстного окна. В данном отчете детально описывается переход от универсальной токенизации на базе Mistral к специализированному словарю, оптимизированному для польского языка, в моделях Bielik v3, рассматриваются инициализация эмбеддингов на основе метода FOCUS, многоэтапная учебная программа предварительного обучения и последующая пост-обработка, включающая контролируемую тонкую настройку, оптимизацию прямых предпочтений и обучение с подкреплением посредством групповой относительной оптимизации политики с верифицируемыми вознаграждениями.
English
The development of the Bielik v3 PL series, encompassing both the 7B and 11B parameter variants, represents a significant milestone in the field of language-specific large language model (LLM) optimization. While general-purpose models often demonstrate impressive multilingual capabilities, they frequently suffer from a fundamental architectural inefficiency: the use of universal tokenizers. These tokenizers, typically designed to cover a broad spectrum of languages, often fail to capture the morphological nuances of specific languages like Polish, leading to higher fertility ratios, increased inference costs, and restricted effective context windows. This report details the transition from the universal Mistral-based tokenization to a dedicated Polish-optimized vocabulary for the Bielik v3 models, exploring the FOCUS-based embedding initialization, the multi-stage pretraining curriculum, and the subsequent post-training alignment involving Supervised Fine-Tuning, Direct Preference Optimization, and Reinforcement Learning through Group Relative Policy Optimization with verifiable rewards.
PDF41April 15, 2026