ChatPaper.aiChatPaper

Ingeniería de Contexto para la Confiabilidad: Direccionamiento de Rescorla-Wagner en Contextos Mixtos e Inapropiados

Context Engineering for Trustworthiness: Rescorla Wagner Steering Under Mixed and Inappropriate Contexts

September 2, 2025
Autores: Rushi Wang, Jiateng Liu, Cheng Qian, Yifan Shen, Yanzhou Pan, Zhaozhuo Xu, Ahmed Abbasi, Heng Ji, Denghui Zhang
cs.AI

Resumen

La incorporación de contexto externo puede mejorar significativamente la calidad de las respuestas de los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés). Sin embargo, los contextos del mundo real a menudo mezclan información relevante con contenido inapropiado desproporcionado, lo que plantea riesgos de fiabilidad. ¿Cómo procesan y priorizan los LLMs el contexto mixto? Para estudiar esto, presentamos el Banco de Pruebas de Contexto Envenenado, que empareja consultas con contextos del mundo real que contienen información relevante y contenido inapropiado. Inspirados por el aprendizaje asociativo en animales, adaptamos el modelo Rescorla-Wagner (RW) de la neurociencia para cuantificar cómo las señales contextuales en competencia influyen en las salidas de los LLMs. Nuestro modelo adaptado revela un patrón de comportamiento consistente: los LLMs muestran una fuerte tendencia a incorporar información que es menos prevalente en el contexto. Esta susceptibilidad es perjudicial en entornos del mundo real, donde pequeñas cantidades de contenido inapropiado pueden degradar sustancialmente la calidad de las respuestas. Las evaluaciones empíricas en nuestro banco de pruebas confirman aún más esta vulnerabilidad. Para abordar esto, presentamos RW-Steering, un enfoque basado en ajuste fino en dos etapas que permite al modelo identificar y ignorar internamente las señales inapropiadas. A diferencia de métodos anteriores que dependen de una supervisión extensa en diversas mezclas de contexto, RW-Steering generaliza de manera robusta en proporciones variables de contenido inapropiado. Los experimentos muestran que nuestro mejor modelo ajustado mejora la calidad de las respuestas en un 39.8% y revierte la curva de comportamiento indeseable, estableciendo RW-Steering como una solución robusta y generalizable de ingeniería de contexto para mejorar la seguridad de los LLMs en su uso en el mundo real.
English
Incorporating external context can significantly enhance the response quality of Large Language Models (LLMs). However, real-world contexts often mix relevant information with disproportionate inappropriate content, posing reliability risks. How do LLMs process and prioritize mixed context? To study this, we introduce the Poisoned Context Testbed, pairing queries with real-world contexts containing relevant and inappropriate content. Inspired by associative learning in animals, we adapt the Rescorla-Wagner (RW) model from neuroscience to quantify how competing contextual signals influence LLM outputs. Our adapted model reveals a consistent behavioral pattern: LLMs exhibit a strong tendency to incorporate information that is less prevalent in the context. This susceptibility is harmful in real-world settings, where small amounts of inappropriate content can substantially degrade response quality. Empirical evaluations on our testbed further confirm this vulnerability. To tackle this, we introduce RW-Steering, a two-stage finetuning-based approach that enables the model to internally identify and ignore inappropriate signals. Unlike prior methods that rely on extensive supervision across diverse context mixtures, RW-Steering generalizes robustly across varying proportions of inappropriate content. Experiments show that our best fine-tuned model improves response quality by 39.8% and reverses the undesirable behavior curve, establishing RW-Steering as a robust, generalizable context engineering solution for improving LLM safety in real-world use.
PDF43September 15, 2025