ChatPaper.aiChatPaper

Bielik 7B v0.1: ポーランド語言語モデル -- 開発、洞察、および評価

Bielik 7B v0.1: A Polish Language Model -- Development, Insights, and Evaluation

October 24, 2024
著者: Krzysztof Ociepa, Łukasz Flis, Krzysztof Wróbel, Adrian Gwoździej, Remigiusz Kinas
cs.AI

要旨

私たちは、ポーランド語処理のための70億パラメータの生成テキストモデルであるBielik 7B v0.1を紹介します。厳選されたポーランド語コーパスで訓練されたこのモデルは、革新的な手法を用いて言語モデル開発の主要な課題に取り組んでいます。これには、異なる命令タイプの学習をバランスさせるWeighted Instruction Cross-Entropy Lossや、トレーニングの進行に応じて学習率を動的に調整するAdaptive Learning Rateなどが含まれます。性能を評価するために、Open PL LLM LeaderboardとPolish MT-Benchを作成しました。これらは、さまざまなNLPタスクや会話能力を評価する新しいフレームワークです。Bielik 7B v0.1は、RAG ReaderタスクにおいてMistral-7B-v0.1と比較して平均スコアが9ポイント向上し、著しい改善を示しています。また、特にReasoning(6.15/10)およびRole-playing(7.83/10)カテゴリーにおいて、Polish MT-Benchで優れた成績を収めています。このモデルは、ポーランド語AIの著しい進歩を表しており、多様な言語アプリケーションにおいて強力なツールを提供し、この分野で新たな基準を設定しています。
English
We introduce Bielik 7B v0.1, a 7-billion-parameter generative text model for Polish language processing. Trained on curated Polish corpora, this model addresses key challenges in language model development through innovative techniques. These include Weighted Instruction Cross-Entropy Loss, which balances the learning of different instruction types, and Adaptive Learning Rate, which dynamically adjusts the learning rate based on training progress. To evaluate performance, we created the Open PL LLM Leaderboard and Polish MT-Bench, novel frameworks assessing various NLP tasks and conversational abilities. Bielik 7B v0.1 demonstrates significant improvements, achieving a 9 percentage point increase in average score compared to Mistral-7B-v0.1 on the RAG Reader task. It also excels in the Polish MT-Bench, particularly in Reasoning (6.15/10) and Role-playing (7.83/10) categories. This model represents a substantial advancement in Polish language AI, offering a powerful tool for diverse linguistic applications and setting new benchmarks in the field.

Summary

AI-Generated Summary

PDF462November 16, 2024