ChatPaper.aiChatPaper

Réduire les hallucinations des modèles de langage grâce à un oracle de licence

Stemming Hallucination in Language Models Using a Licensing Oracle

November 8, 2025
papers.authors: Simeon Emanuilov, Richard Ackermann
cs.AI

papers.abstract

Les modèles de langage présentent des capacités remarquables de génération de langage naturel mais restent sujets aux hallucinations, produisant des informations factuellement incorrectes malgré des réponses syntaxiquement cohérentes. Cette étude présente l'Oracle de Licence, une solution architecturale conçue pour endiguer les hallucinations dans les modèles de langage en imposant des contraintes de vérité via une validation formelle contre des graphes de connaissances structurés. Contrairement aux approches statistiques qui reposent sur l'augmentation des données ou le fine-tuning, l'Oracle de Licence intègre une étape de validation déterministe dans le processus génératif du modèle, garantissant que seules des affirmations factuellement exactes sont produites. Nous avons évalué l'efficacité de l'Oracle de Licence via des expériences le comparant à plusieurs méthodes de pointe, incluant la génération de base par un modèle de langage, le fine-tuning pour le rappel factuel, le fine-tuning pour un comportement d'abstention, et la génération augmentée par retrieval (RAG). Nos résultats démontrent que bien que le RAG et le fine-tuning améliorent les performances, ils n'éliminent pas les hallucinations. En revanche, l'Oracle de Licence a atteint une précision d'abstention parfaite (AP = 1,0) et zéro réponse fausse (FAR-NE = 0,0), garantissant que seules des affirmations valides étaient générées avec une exactitude factuelle de 89,1 %. Ce travail montre que les innovations architecturales, comme l'Oracle de Licence, offrent une solution nécessaire et suffisante contre les hallucinations dans les domaines dotés de représentations de connaissances structurées, proposant des garanties que les méthodes statistiques ne peuvent égaler. Bien que l'Oracle de Licence soit spécifiquement conçu pour traiter les hallucinations dans les domaines factuels, son cadre jette les bases d'une génération contrainte par la vérité pour les futurs systèmes d'IA, ouvrant une nouvelle voie vers des modèles fiables et épistémiquement fondés.
English
Language models exhibit remarkable natural language generation capabilities but remain prone to hallucinations, generating factually incorrect information despite producing syntactically coherent responses. This study introduces the Licensing Oracle, an architectural solution designed to stem hallucinations in LMs by enforcing truth constraints through formal validation against structured knowledge graphs. Unlike statistical approaches that rely on data scaling or fine-tuning, the Licensing Oracle embeds a deterministic validation step into the model's generative process, ensuring that only factually accurate claims are made. We evaluated the effectiveness of the Licensing Oracle through experiments comparing it with several state-of-the-art methods, including baseline language model generation, fine-tuning for factual recall, fine-tuning for abstention behavior, and retrieval-augmented generation (RAG). Our results demonstrate that although RAG and fine-tuning improve performance, they fail to eliminate hallucinations. In contrast, the Licensing Oracle achieved perfect abstention precision (AP = 1.0) and zero false answers (FAR-NE = 0.0), ensuring that only valid claims were generated with 89.1% accuracy in factual responses. This work shows that architectural innovations, such as the Licensing Oracle, offer a necessary and sufficient solution for hallucinations in domains with structured knowledge representations, offering guarantees that statistical methods cannot match. Although the Licensing Oracle is specifically designed to address hallucinations in fact-based domains, its framework lays the groundwork for truth-constrained generation in future AI systems, providing a new path toward reliable, epistemically grounded models.
PDF12December 1, 2025