ChatPaper.aiChatPaper

¿Puede la equidad ser impulsada por prompts? Estrategias de mitigación de sesgos basadas en prompts en recomendaciones de alto impacto

Can Fairness Be Prompted? Prompt-Based Debiasing Strategies in High-Stakes Recommendations

March 13, 2026
Autores: Mihaela Rotar, Theresia Veronika Rampisela, Maria Maistro
cs.AI

Resumen

Los Modelos de Lenguaje Grandes (LLMs) pueden inferir atributos sensibles como el género o la edad a partir de indicios indirectos como nombres y pronombres, lo que potencialmente sesga las recomendaciones. Si bien existen varios métodos de eliminación de sesgos, estos requieren acceso a los pesos de los LLMs, son computacionalmente costosos y no pueden ser utilizados por usuarios no expertos. Para abordar esta brecha, investigamos los sesgos implícitos en los Recomendadores basados en LLMs (LLMRecs) y exploramos si las estrategias basadas en prompts pueden servir como un enfoque de eliminación de sesgos ligero y fácil de usar. Contribuimos con tres estrategias de prompting conscientes del sesgo para LLMRecs. Hasta donde sabemos, este es el primer estudio sobre enfoques de eliminación de sesgos basados en prompts en LLMRecs que se centra en la equidad grupal para los usuarios. Nuestros experimentos con 3 LLMs, 4 plantillas de prompts, 9 valores de atributos sensibles y 2 conjuntos de datos muestran que nuestro enfoque de eliminación de sesgos propuesto, que instruye a un LLM para que sea justo, puede mejorar la equidad hasta en un 74% manteniendo una eficacia comparable, pero podría sobrepromocionar grupos demográficos específicos en algunos casos.
English
Large Language Models (LLMs) can infer sensitive attributes such as gender or age from indirect cues like names and pronouns, potentially biasing recommendations. While several debiasing methods exist, they require access to the LLMs' weights, are computationally costly, and cannot be used by lay users. To address this gap, we investigate implicit biases in LLM Recommenders (LLMRecs) and explore whether prompt-based strategies can serve as a lightweight and easy-to-use debiasing approach. We contribute three bias-aware prompting strategies for LLMRecs. To our knowledge, this is the first study on prompt-based debiasing approaches in LLMRecs that focuses on group fairness for users. Our experiments with 3 LLMs, 4 prompt templates, 9 sensitive attribute values, and 2 datasets show that our proposed debiasing approach, which instructs an LLM to be fair, can improve fairness by up to 74% while retaining comparable effectiveness, but might overpromote specific demographic groups in some cases.
PDF32March 30, 2026