CoBia: Geconstrueerde gesprekken kunnen anders verborgen maatschappelijke vooroordelen in LLM's blootleggen
CoBia: Constructed Conversations Can Trigger Otherwise Concealed Societal Biases in LLMs
October 10, 2025
Auteurs: Nafiseh Nikeghbal, Amir Hossein Kargaran, Jana Diesner
cs.AI
Samenvatting
Verbeteringen in modelconstructie, waaronder versterkte veiligheidsbeperkingen, zorgen ervoor dat grote taalmmodellen (LLMs) steeds vaker standaard veiligheidscontroles doorstaan. Echter, LLMs vervallen soms in het vertonen van schadelijk gedrag, zoals het uiten van racistische standpunten, tijdens gesprekken. Om dit systematisch te analyseren, introduceren we CoBia, een reeks lichtgewicht adversariële aanvallen waarmee we de reeks voorwaarden kunnen verfijnen waaronder LLMs afwijken van normatief of ethisch gedrag in gesprekken. CoBia creëert een geconstrueerd gesprek waarin het model een bevooroordeelde uitspraak doet over een sociale groep. Vervolgens evalueren we of het model kan herstellen van de gefabriceerde bevooroordeelde uitspraak en bevooroordeelde vervolgvragen kan afwijzen. We evalueren 11 open-source en propriëtaire LLMs op hun uitvoer met betrekking tot zes sociaal-demografische categorieën die relevant zijn voor individuele veiligheid en eerlijke behandeling, namelijk geslacht, ras, religie, nationaliteit, seksuele geaardheid en andere. Onze evaluatie is gebaseerd op gevestigde LLM-gebaseerde biasmetrieken, en we vergelijken de resultaten met menselijke oordelen om de betrouwbaarheid en afstemming van de LLMs in kaart te brengen. De resultaten suggereren dat doelbewust geconstrueerde gesprekken betrouwbaar biasversterking onthullen en dat LLMs vaak falen in het afwijzen van bevooroordeelde vervolgvragen tijdens dialoog. Deze vorm van stresstesten benadrukt diepgewortelde vooroordelen die naar voren kunnen komen door interactie. Code en artefacten zijn beschikbaar op https://github.com/nafisenik/CoBia.
English
Improvements in model construction, including fortified safety guardrails,
allow Large language models (LLMs) to increasingly pass standard safety checks.
However, LLMs sometimes slip into revealing harmful behavior, such as
expressing racist viewpoints, during conversations. To analyze this
systematically, we introduce CoBia, a suite of lightweight adversarial attacks
that allow us to refine the scope of conditions under which LLMs depart from
normative or ethical behavior in conversations. CoBia creates a constructed
conversation where the model utters a biased claim about a social group. We
then evaluate whether the model can recover from the fabricated bias claim and
reject biased follow-up questions. We evaluate 11 open-source as well as
proprietary LLMs for their outputs related to six socio-demographic categories
that are relevant to individual safety and fair treatment, i.e., gender, race,
religion, nationality, sex orientation, and others. Our evaluation is based on
established LLM-based bias metrics, and we compare the results against human
judgments to scope out the LLMs' reliability and alignment. The results suggest
that purposefully constructed conversations reliably reveal bias amplification
and that LLMs often fail to reject biased follow-up questions during dialogue.
This form of stress-testing highlights deeply embedded biases that can be
surfaced through interaction. Code and artifacts are available at
https://github.com/nafisenik/CoBia.