Bielik Guard: Эффективные классификаторы безопасности польского языка для модерации контента в больших языковых моделях
Bielik Guard: Efficient Polish Language Safety Classifiers for LLM Content Moderation
February 8, 2026
Авторы: Krzysztof Wróbel, Jan Maria Kowalski, Jerzy Surma, Igor Ciuciura, Maciej Szymański
cs.AI
Аннотация
По мере расширения внедрения больших языковых моделей (LLM) в приложениях на польском языке потребность в эффективных и точных классификаторах безопасности контента стала первостепенной. Мы представляем Bielik Guard — семейство компактных классификаторов безопасности для польского языка, состоящее из двух вариантов моделей: модели с 0.1 млрд параметров на основе MMLW-RoBERTa-base и модели с 0.5 млрд параметров на основе PKOBP/polish-roberta-8k. Обученные с дообучением на размеченном сообществом наборе данных из 6885 польских текстов, эти модели классифицируют контент по пяти категориям безопасности: Ненависть/Агрессия, Вульгарности, Сексуальный контент, Преступность и Самоповреждение. Наша оценка показывает, что обе модели демонстрируют высокую производительность в нескольких тестах. Вариант на 0.5 млрд параметров предлагает наилучшую общую дискриминационную способность с F1-мерами 0.791 (микро) и 0.785 (макро) на тестовом наборе, в то время как вариант на 0.1 млрд параметров демонстрирует исключительную эффективность. Примечательно, что Bielik Guard 0.1B v1.1 достигает превосходной точности (77.65%) и очень низкого уровня ложных срабатываний (0.63%) на реальных пользовательских запросах, превосходя HerBERT-PL-Guard (точность 31.55%, FPR 4.70%) несмотря на идентичный размер модели. Модели находятся в открытом доступе и предназначены для предоставления соответствующих ответов, а не простой блокировки контента, особенно для чувствительных категорий, таких как самоповреждение.
English
As Large Language Models (LLMs) become increasingly deployed in Polish language applications, the need for efficient and accurate content safety classifiers has become paramount. We present Bielik Guard, a family of compact Polish language safety classifiers comprising two model variants: a 0.1B parameter model based on MMLW-RoBERTa-base and a 0.5B parameter model based on PKOBP/polish-roberta-8k. Fine-tuned on a community-annotated dataset of 6,885 Polish texts, these models classify content across five safety categories: Hate/Aggression, Vulgarities, Sexual Content, Crime, and Self-Harm. Our evaluation demonstrates that both models achieve strong performance on multiple benchmarks. The 0.5B variant offers the best overall discrimination capability with F1 scores of 0.791 (micro) and 0.785 (macro) on the test set, while the 0.1B variant demonstrates exceptional efficiency. Notably, Bielik Guard 0.1B v1.1 achieves superior precision (77.65%) and very low false positive rate (0.63%) on real user prompts, outperforming HerBERT-PL-Guard (31.55% precision, 4.70% FPR) despite identical model size. The models are publicly available and designed to provide appropriate responses rather than simple content blocking, particularly for sensitive categories like self-harm.