Bielik Guard : Des classificateurs de sécurité linguistique polonaise efficaces pour la modération de contenu des LLM
Bielik Guard: Efficient Polish Language Safety Classifiers for LLM Content Moderation
February 8, 2026
papers.authors: Krzysztof Wróbel, Jan Maria Kowalski, Jerzy Surma, Igor Ciuciura, Maciej Szymański
cs.AI
papers.abstract
Alors que les modèles de langage de grande taille (LLM) sont de plus en plus déployés dans les applications en langue polonaise, la nécessité de classificateurs de sécurité des contenus efficaces et précis est devenue primordiale. Nous présentons Bielik Guard, une famille de classificateurs de sécurité compacts pour la langue polonaise comprenant deux variantes de modèles : un modèle de 0,1 milliard de paramètres basé sur MMLW-RoBERTa-base et un modèle de 0,5 milliard de paramètres basé sur PKOBP/polish-roberta-8k. Fine-tunés sur un jeu de données annoté par la communauté de 6 885 textes polonais, ces modèles classent le contenu selon cinq catégories de sécurité : Haine/Aggression, Vulgarités, Contenu Sexuel, Criminalité et Automutilation. Notre évaluation démontre que les deux modèles atteignent de solides performances sur plusieurs benchmarks. La variante de 0,5 milliard de paramètres offre la meilleure capacité de discrimination globale avec des scores F1 de 0,791 (micro) et 0,785 (macro) sur l'ensemble de test, tandis que la variante de 0,1 milliard de paramètres démontre une efficacité exceptionnelle. Notamment, Bielik Guard 0.1B v1.1 atteint une précision supérieure (77,65 %) et un taux de faux positifs très faible (0,63 %) sur des invites d'utilisateurs réels, surpassant HerBERT-PL-Guard (31,55 % de précision, 4,70 % de FPR) malgré une taille de modèle identique. Les modèles sont publics et conçus pour fournir des réponses appropriées plutôt qu'un simple blocage de contenu, en particulier pour les catégories sensibles comme l'automutilation.
English
As Large Language Models (LLMs) become increasingly deployed in Polish language applications, the need for efficient and accurate content safety classifiers has become paramount. We present Bielik Guard, a family of compact Polish language safety classifiers comprising two model variants: a 0.1B parameter model based on MMLW-RoBERTa-base and a 0.5B parameter model based on PKOBP/polish-roberta-8k. Fine-tuned on a community-annotated dataset of 6,885 Polish texts, these models classify content across five safety categories: Hate/Aggression, Vulgarities, Sexual Content, Crime, and Self-Harm. Our evaluation demonstrates that both models achieve strong performance on multiple benchmarks. The 0.5B variant offers the best overall discrimination capability with F1 scores of 0.791 (micro) and 0.785 (macro) on the test set, while the 0.1B variant demonstrates exceptional efficiency. Notably, Bielik Guard 0.1B v1.1 achieves superior precision (77.65%) and very low false positive rate (0.63%) on real user prompts, outperforming HerBERT-PL-Guard (31.55% precision, 4.70% FPR) despite identical model size. The models are publicly available and designed to provide appropriate responses rather than simple content blocking, particularly for sensitive categories like self-harm.