ChatPaper.aiChatPaper

Kann Fairness durch Prompts erreicht werden? Prompt-basierte Debiasing-Strategien für Hochrisiko-Empfehlungssysteme

Can Fairness Be Prompted? Prompt-Based Debiasing Strategies in High-Stakes Recommendations

March 13, 2026
Autoren: Mihaela Rotar, Theresia Veronika Rampisela, Maria Maistro
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs) können sensible Attribute wie Geschlecht oder Alter aus indirekten Hinweisen wie Namen und Pronomen ableiten, was Empfehlungen potenziell verzerren kann. Obwohl mehrere Methoden zur Entschärfung solcher Verzerrungen existieren, erfordern diese Zugriff auf die Gewichte der LLMs, sind rechenintensiv und können von Laien nicht genutzt werden. Um diese Lücke zu schließen, untersuchen wir implizite Verzerrungen in LLM-basierten Empfehlungssystemen (LLMRecs) und erforschen, ob prompt-basierte Strategien als leichtgewichtiger und benutzerfreundlicher Ansatz zur Entschärfung dienen können. Wir präsentieren drei bias-bewusste Prompting-Strategien für LLMRecs. Unseres Wissens ist dies die erste Studie zu prompt-basierten Entschärfungsansätzen in LLMRecs, die sich auf Gruppengerechtigkeit für Nutzer konzentriert. Unsere Experimente mit 3 LLMs, 4 Prompt-Vorlagen, 9 sensiblen Attributwerten und 2 Datensätzen zeigen, dass unser vorgeschlagener Entschärfungsansatz – der ein LLM anweist, fair zu agieren – die Fairness um bis zu 74 % verbessern kann, bei vergleichbarer Effektivität, in einigen Fällen jedoch bestimmte demografische Gruppen übermäßig begünstigen kann.
English
Large Language Models (LLMs) can infer sensitive attributes such as gender or age from indirect cues like names and pronouns, potentially biasing recommendations. While several debiasing methods exist, they require access to the LLMs' weights, are computationally costly, and cannot be used by lay users. To address this gap, we investigate implicit biases in LLM Recommenders (LLMRecs) and explore whether prompt-based strategies can serve as a lightweight and easy-to-use debiasing approach. We contribute three bias-aware prompting strategies for LLMRecs. To our knowledge, this is the first study on prompt-based debiasing approaches in LLMRecs that focuses on group fairness for users. Our experiments with 3 LLMs, 4 prompt templates, 9 sensitive attribute values, and 2 datasets show that our proposed debiasing approach, which instructs an LLM to be fair, can improve fairness by up to 74% while retaining comparable effectiveness, but might overpromote specific demographic groups in some cases.
PDF32March 30, 2026