Bielik Guard: Efficiënte Poolse Taal Veiligheidsclassificatoren voor LLM Content Moderatie
Bielik Guard: Efficient Polish Language Safety Classifiers for LLM Content Moderation
February 8, 2026
Auteurs: Krzysztof Wróbel, Jan Maria Kowalski, Jerzy Surma, Igor Ciuciura, Maciej Szymański
cs.AI
Samenvatting
Naarmate grote taalmmodellen (LLM's) steeds vaker worden ingezet voor Poolstalige toepassingen, wordt de behoefte aan efficiënte en nauwkeurige classificatoren voor inhoudsveiligheid steeds groter. Wij presenteren Bielik Guard, een familie van compacte veiligheidsclassificatoren voor de Poolse taal, bestaande uit twee modelvarianten: een model met 0,1B parameters gebaseerd op MMLW-RoBERTa-base en een model met 0,5B parameters gebaseerd op PKOBP/polish-roberta-8k. Gefinetuned op een door een gemeenschap geannoteerde dataset van 6.885 Poolse teksten, classificeren deze modellen inhoud in vijf veiligheidscategorieën: Haat/Agressie, Vulgariteiten, Seksuele Inhoud, Criminaliteit en Zelfbeschadiging. Onze evaluatie toont aan dat beide modellen sterke prestaties leveren op meerdere benchmarks. De 0,5B-variant biedt de beste algehele onderscheidingscapaciteit met F1-scores van 0,791 (micro) en 0,785 (macro) op de testset, terwijl de 0,1B-variant uitzonderlijke efficiëntie demonstreert. Opmerkelijk is dat Bielik Guard 0.1B v1.1 superieure precisie (77,65%) en een zeer laag fout-positiefpercentage (0,63%) bereikt op echte gebruikersprompts, wat beter is dan HerBERT-PL-Guard (31,55% precisie, 4,70% FPR) ondanks een identieke modelgrootte. De modellen zijn publiekelijk beschikbaar en zijn ontworpen om gepaste reacties te geven in plaats van eenvoudige inhoudsblokkering, met name voor gevoelige categorieën zoals zelfbeschadiging.
English
As Large Language Models (LLMs) become increasingly deployed in Polish language applications, the need for efficient and accurate content safety classifiers has become paramount. We present Bielik Guard, a family of compact Polish language safety classifiers comprising two model variants: a 0.1B parameter model based on MMLW-RoBERTa-base and a 0.5B parameter model based on PKOBP/polish-roberta-8k. Fine-tuned on a community-annotated dataset of 6,885 Polish texts, these models classify content across five safety categories: Hate/Aggression, Vulgarities, Sexual Content, Crime, and Self-Harm. Our evaluation demonstrates that both models achieve strong performance on multiple benchmarks. The 0.5B variant offers the best overall discrimination capability with F1 scores of 0.791 (micro) and 0.785 (macro) on the test set, while the 0.1B variant demonstrates exceptional efficiency. Notably, Bielik Guard 0.1B v1.1 achieves superior precision (77.65%) and very low false positive rate (0.63%) on real user prompts, outperforming HerBERT-PL-Guard (31.55% precision, 4.70% FPR) despite identical model size. The models are publicly available and designed to provide appropriate responses rather than simple content blocking, particularly for sensitive categories like self-harm.