ChatPaper.aiChatPaper

QueryBandits pour l'atténuation des hallucinations : Exploitation des caractéristiques sémantiques pour une réécriture sans regret

QueryBandits for Hallucination Mitigation: Exploiting Semantic Features for No-Regret Rewriting

August 22, 2025
papers.authors: Nicole Cho, William Watson, Alec Koppel, Sumitra Ganesh, Manuela Veloso
cs.AI

papers.abstract

Les capacités de raisonnement avancées des modèles de langage à grande échelle (LLMs) ont entraîné une prévalence accrue des hallucinations ; pourtant, la plupart des travaux d'atténuation se concentrent sur le filtrage a posteriori plutôt que sur la formulation des requêtes qui les déclenchent. Nous introduisons QueryBandits, un cadre de bandits qui conçoit des stratégies de reformulation pour maximiser un modèle de récompense, encapsulant la propension aux hallucinations en fonction des sensibilités de 17 caractéristiques linguistiques de la requête d'entrée, et donc, oriente proactivement les LLMs pour éviter la génération d'hallucinations. Sur 13 benchmarks divers de questions-réponses et 1 050 requêtes lexicalement perturbées par jeu de données, notre meilleur QueryBandit contextuel (Thompson Sampling) atteint un taux de réussite de 87,5 % par rapport à une base de référence sans reformulation et surpasse également les incitations statiques sans apprentissage ("paraphrase" ou "expand") respectivement de 42,6 % et 60,3 %. Ainsi, nous validons empiriquement l'efficacité de QueryBandits pour atténuer les hallucinations via une intervention sous forme de reformulation de requête. Fait intéressant, certaines stratégies d'incitation statique, qui constituent une part considérable de la littérature actuelle sur la reformulation de requêtes, présentent un regret cumulatif plus élevé que la base de référence sans reformulation, indiquant que les reformulations statiques peuvent aggraver les hallucinations. De plus, nous découvrons que les vecteurs de poids des caractéristiques de régression convergés par bras confirment qu'il n'existe pas de stratégie de reformulation unique optimale pour toutes les requêtes. Dans ce contexte, la reformulation guidée via l'exploitation de caractéristiques sémantiques avec QueryBandits peut induire des changements significatifs dans le comportement de sortie grâce à des mécanismes de passage avant, évitant ainsi la nécessité d'un réentraînement ou d'une adaptation basée sur le gradient.
English
Advanced reasoning capabilities in Large Language Models (LLMs) have caused higher hallucination prevalence; yet most mitigation work focuses on after-the-fact filtering rather than shaping the queries that trigger them. We introduce QueryBandits, a bandit framework that designs rewrite strategies to maximize a reward model, that encapsulates hallucination propensity based upon the sensitivities of 17 linguistic features of the input query-and therefore, proactively steer LLMs away from generating hallucinations. Across 13 diverse QA benchmarks and 1,050 lexically perturbed queries per dataset, our top contextual QueryBandit (Thompson Sampling) achieves an 87.5% win rate over a no-rewrite baseline and also outperforms zero-shot static prompting ("paraphrase" or "expand") by 42.6% and 60.3% respectively. Therefore, we empirically substantiate the effectiveness of QueryBandits in mitigating hallucination via the intervention that takes the form of a query rewrite. Interestingly, certain static prompting strategies, which constitute a considerable number of current query rewriting literature, have a higher cumulative regret than the no-rewrite baseline, signifying that static rewrites can worsen hallucination. Moreover, we discover that the converged per-arm regression feature weight vectors substantiate that there is no single rewrite strategy optimal for all queries. In this context, guided rewriting via exploiting semantic features with QueryBandits can induce significant shifts in output behavior through forward-pass mechanisms, bypassing the need for retraining or gradient-based adaptation.
PDF21August 27, 2025