Bielik v3 小型版:技術報告Bielik v3 Small: Technical Report
我們推出Bielik v3,這是一系列專為波蘭語處理優化的參數高效生成文本模型(1.5B和4.5B)。這些模型展示了經過良好優化的較小架構能夠在顯著減少計算資源需求的同時,實現與更大模型相媲美的性能。我們的方法融合了多項關鍵創新:一個顯著提升標記效率的定制波蘭語分詞器(APT4)、用於平衡各類指令學習的加權指令交叉熵損失,以及根據訓練進度動態調整的自適應學習率。這些模型基於精心挑選的2920億標記、涵蓋3.03億份文件的語料庫進行訓練,在多個基準測試中表現卓越,包括Open PL LLM Leaderboard、Complex Polish Text Understanding Benchmark、Polish EQ-Bench和Polish Medical Leaderboard。其中,4.5B參數模型的成績可與其規模2-3倍的模型競爭,而1.5B模型則在極其緊湊的配置下仍展現出強勁性能。這些進展為在代表性不足的語言中進行參數高效語言建模設立了新標杆,使得高質量的波蘭語AI技術更易於在資源受限的應用中普及。