Avances en el Modelado del Lenguaje Polaco mediante la Optimización del Tokenizador en las Series Bielik v3 7B y 11B
Advancing Polish Language Modeling through Tokenizer Optimization in the Bielik v3 7B and 11B Series
April 12, 2026
Autores: Krzysztof Ociepa, Łukasz Flis, Remigiusz Kinas, Krzysztof Wróbel, Adrian Gwoździej
cs.AI
Resumen
El desarrollo de la serie Bielik v3 PL, que abarca las variantes de 7B y 11B de parámetros, representa un hito significativo en el campo de la optimización de modelos de lenguaje grande (LLM) específicos de un idioma. Si bien los modelos de propósito general a menudo demuestran capacidades multilingües impresionantes, frecuentemente adolecen de una ineficiencia arquitectónica fundamental: el uso de tokenizadores universales. Estos tokenizadores, diseñados típicamente para cubrir un amplio espectro de idiomas, a menudo no logran capturar los matices morfológicos de lenguas específicas como el polaco, lo que conduce a ratios de fertilidad más altos, mayores costos de inferencia y ventanas de contexto efectivo restringidas. Este informe detalla la transición desde la tokenización universal basada en Mistral hacia un vocabulario dedicado y optimizado para el polaco en los modelos Bielik v3, explorando la inicialización de embeddings basada en FOCUS, el currículum de preentrenamiento multietapa y la posterior alineación post-entrenamiento que involucra el Fine-Tuning Supervisado, la Optimización Directa de Preferencias y el Aprendizaje por Refuerzo mediante la Optimización de Políticas Relativas Grupales con recompensas verificables.
English
The development of the Bielik v3 PL series, encompassing both the 7B and 11B parameter variants, represents a significant milestone in the field of language-specific large language model (LLM) optimization. While general-purpose models often demonstrate impressive multilingual capabilities, they frequently suffer from a fundamental architectural inefficiency: the use of universal tokenizers. These tokenizers, typically designed to cover a broad spectrum of languages, often fail to capture the morphological nuances of specific languages like Polish, leading to higher fertility ratios, increased inference costs, and restricted effective context windows. This report details the transition from the universal Mistral-based tokenization to a dedicated Polish-optimized vocabulary for the Bielik v3 models, exploring the FOCUS-based embedding initialization, the multi-stage pretraining curriculum, and the subsequent post-training alignment involving Supervised Fine-Tuning, Direct Preference Optimization, and Reinforcement Learning through Group Relative Policy Optimization with verifiable rewards.