ChatPaper.aiChatPaper

CoBia: Сконструированные диалоги могут выявить скрытые социальные предубеждения в языковых моделях

CoBia: Constructed Conversations Can Trigger Otherwise Concealed Societal Biases in LLMs

October 10, 2025
Авторы: Nafiseh Nikeghbal, Amir Hossein Kargaran, Jana Diesner
cs.AI

Аннотация

Улучшения в построении моделей, включая усиленные защитные механизмы, позволяют крупным языковым моделям (LLM) всё чаще проходить стандартные проверки на безопасность. Однако LLM иногда проявляют вредоносное поведение, например, выражают расистские взгляды, в ходе диалогов. Для систематического анализа этого явления мы представляем CoBia — набор лёгких атак, которые позволяют уточнить условия, при которых LLM отклоняются от нормативного или этического поведения в беседах. CoBia создаёт искусственный диалог, в котором модель высказывает предвзятое утверждение о социальной группе. Затем мы оцениваем, способна ли модель восстановиться после сфабрикованного предвзятого утверждения и отвергнуть предвзятые последующие вопросы. Мы тестируем 11 открытых и проприетарных LLM на их выходные данные, связанные с шестью социально-демографическими категориями, важными для индивидуальной безопасности и справедливого обращения: пол, раса, религия, национальность, сексуальная ориентация и другие. Наша оценка основана на устоявшихся метриках предвзятости для LLM, и мы сравниваем результаты с суждениями людей, чтобы определить надёжность и согласованность LLM. Результаты показывают, что целенаправленно созданные диалоги надёжно выявляют усиление предвзятости, и что LLM часто не способны отвергнуть предвзятые последующие вопросы в ходе диалога. Такое стресс-тестирование подчёркивает глубоко укоренившиеся предубеждения, которые могут проявляться в процессе взаимодействия. Код и материалы доступны по адресу https://github.com/nafisenik/CoBia.
English
Improvements in model construction, including fortified safety guardrails, allow Large language models (LLMs) to increasingly pass standard safety checks. However, LLMs sometimes slip into revealing harmful behavior, such as expressing racist viewpoints, during conversations. To analyze this systematically, we introduce CoBia, a suite of lightweight adversarial attacks that allow us to refine the scope of conditions under which LLMs depart from normative or ethical behavior in conversations. CoBia creates a constructed conversation where the model utters a biased claim about a social group. We then evaluate whether the model can recover from the fabricated bias claim and reject biased follow-up questions. We evaluate 11 open-source as well as proprietary LLMs for their outputs related to six socio-demographic categories that are relevant to individual safety and fair treatment, i.e., gender, race, religion, nationality, sex orientation, and others. Our evaluation is based on established LLM-based bias metrics, and we compare the results against human judgments to scope out the LLMs' reliability and alignment. The results suggest that purposefully constructed conversations reliably reveal bias amplification and that LLMs often fail to reject biased follow-up questions during dialogue. This form of stress-testing highlights deeply embedded biases that can be surfaced through interaction. Code and artifacts are available at https://github.com/nafisenik/CoBia.
PDF22October 14, 2025