ビエリクガード:LLMコンテンツモデレーションのための効率的なポーランド語安全性分類器
Bielik Guard: Efficient Polish Language Safety Classifiers for LLM Content Moderation
February 8, 2026
著者: Krzysztof Wróbel, Jan Maria Kowalski, Jerzy Surma, Igor Ciuciura, Maciej Szymański
cs.AI
要旨
大規模言語モデル(LLM)がポーランド語アプリケーションでますます利用されるにつれ、効率的かつ正確なコンテンツ安全性分類器の必要性が極めて重要となっている。本論文では、コンパクトなポーランド語安全性分類器群であるBielik Guardを提案する。これは2つのモデル変種から構成される:MMLW-RoBERTa-baseを基にした0.1Bパラメータモデルと、PKOBP/polish-roberta-8kを基にした0.5Bパラメータモデルである。コミュニティにより注釈付けされた6,885件のポーランド語テキストデータセットでファインチューニングされたこれらのモデルは、コンテンツを5つの安全性カテゴリ(ヘイト/攻撃性、卑語、性的コンテンツ、犯罪、自傷行為)に分類する。評価の結果、両モデルは複数のベンチマークで強力な性能を達成することが示された。0.5B変種はテストセットにおいてF1スコアが0.791(マイクロ平均)、0.785(マクロ平均)と、最高の全体的な識別能力を提供する一方、0.1B変種は卓越した効率性を示した。特筆すべきは、Bielik Guard 0.1B v1.1が実ユーザープロンプトにおいて優れた精度(77.65%)と非常に低い偽陽性率(0.63%)を達成し、モデルサイズが同一であるHerBERT-PL-Guard(精度31.55%、偽陽性率4.70%)を凌駕している点である。これらのモデルは公開されており、特に自傷行為のような敏感なカテゴリにおいて、単純なコンテンツブロックではなく適切な応答を提供するように設計されている。
English
As Large Language Models (LLMs) become increasingly deployed in Polish language applications, the need for efficient and accurate content safety classifiers has become paramount. We present Bielik Guard, a family of compact Polish language safety classifiers comprising two model variants: a 0.1B parameter model based on MMLW-RoBERTa-base and a 0.5B parameter model based on PKOBP/polish-roberta-8k. Fine-tuned on a community-annotated dataset of 6,885 Polish texts, these models classify content across five safety categories: Hate/Aggression, Vulgarities, Sexual Content, Crime, and Self-Harm. Our evaluation demonstrates that both models achieve strong performance on multiple benchmarks. The 0.5B variant offers the best overall discrimination capability with F1 scores of 0.791 (micro) and 0.785 (macro) on the test set, while the 0.1B variant demonstrates exceptional efficiency. Notably, Bielik Guard 0.1B v1.1 achieves superior precision (77.65%) and very low false positive rate (0.63%) on real user prompts, outperforming HerBERT-PL-Guard (31.55% precision, 4.70% FPR) despite identical model size. The models are publicly available and designed to provide appropriate responses rather than simple content blocking, particularly for sensitive categories like self-harm.