ChatPaper.aiChatPaper

KnowRL: Verkenning van Kennisrijke Reinforcement Learning voor Feitelijkheid

KnowRL: Exploring Knowledgeable Reinforcement Learning for Factuality

June 24, 2025
Auteurs: Baochang Ren, Shuofei Qiao, Wenhao Yu, Huajun Chen, Ningyu Zhang
cs.AI

Samenvatting

Grote Taalmodellen (LLM's), met name langzaam denkende modellen, vertonen vaak ernstige hallucinaties, waarbij ze incorrecte inhoud produceren vanwege het onvermogen om kennisgrenzen tijdens het redeneren nauwkeurig te herkennen. Hoewel Reinforcement Learning (RL) complexe redeneervaardigheden kan verbeteren, ontbreekt het vaak aan feitelijke supervisie over het denkproces in de uitkomstgerichte beloningsmechanismen, wat het hallucinatieprobleem verder verergert. Om het hoge hallucinatiegehalte in langzaam denkende modellen aan te pakken, stellen we Knowledge-enhanced RL voor, genaamd KnowRL. KnowRL begeleidt modellen bij het uitvoeren van feitelijk onderbouwd langzaam denken door een feitelijkheidsbeloning, gebaseerd op kennisverificatie, te integreren in het RL-trainingsproces, waardoor ze hun kennisgrenzen beter kunnen herkennen. Deze gerichte feitelijke input tijdens de RL-training stelt het model in staat om feitelijk onderbouwde redeneerstrategieën te leren en te internaliseren. Door directe beloning voor het naleven van feiten binnen de redeneerstappen, bevordert KnowRL een betrouwbaarder denkproces. Experimentele resultaten op drie hallucinatie-evaluatiedatasets en twee redeneer-evaluatiedatasets tonen aan dat KnowRL hallucinaties in langzaam denkende modellen effectief vermindert, terwijl hun oorspronkelijke sterke redeneercapaciteiten behouden blijven. Onze code is beschikbaar op https://github.com/zjunlp/KnowRL.
English
Large Language Models (LLMs), particularly slow-thinking models, often exhibit severe hallucination, outputting incorrect content due to an inability to accurately recognize knowledge boundaries during reasoning. While Reinforcement Learning (RL) can enhance complex reasoning abilities, its outcome-oriented reward mechanism often lacks factual supervision over the thinking process, further exacerbating the hallucination problem. To address the high hallucination in slow-thinking models, we propose Knowledge-enhanced RL, KnowRL. KnowRL guides models to perform fact-based slow thinking by integrating a factuality reward, based on knowledge verification, into the RL training process, helping them recognize their knowledge boundaries. KnowRL guides models to perform fact-based slow thinking by integrating a factuality reward, based on knowledge verification, into the RL training process, helping them recognize their knowledge boundaries. This targeted factual input during RL training enables the model to learn and internalize fact-based reasoning strategies. By directly rewarding adherence to facts within the reasoning steps, KnowRL fosters a more reliable thinking process. Experimental results on three hallucination evaluation datasets and two reasoning evaluation datasets demonstrate that KnowRL effectively mitigates hallucinations in slow-thinking models while maintaining their original strong reasoning capabilities. Our code is available at https://github.com/zjunlp/KnowRL.
PDF71June 25, 2025