ChatPaper.aiChatPaper

KnowRL: Explorando o Aprendizado por Reforço Baseado em Conhecimento para Factualidade

KnowRL: Exploring Knowledgeable Reinforcement Learning for Factuality

June 24, 2025
Autores: Baochang Ren, Shuofei Qiao, Wenhao Yu, Huajun Chen, Ningyu Zhang
cs.AI

Resumo

Modelos de Linguagem de Grande Escala (LLMs), particularmente modelos de pensamento lento, frequentemente exibem alucinações severas, gerando conteúdo incorreto devido à incapacidade de reconhecer com precisão os limites do conhecimento durante o raciocínio. Embora o Aprendizado por Reforço (RL) possa aprimorar as habilidades de raciocínio complexo, seu mecanismo de recompensa orientado a resultados frequentemente carece de supervisão factual sobre o processo de pensamento, exacerbando ainda mais o problema de alucinação. Para abordar a alta incidência de alucinações em modelos de pensamento lento, propomos o RL Aprimorado por Conhecimento, KnowRL. O KnowRL orienta os modelos a realizar pensamento lento baseado em fatos, integrando uma recompensa de factualidade, baseada na verificação de conhecimento, no processo de treinamento de RL, ajudando-os a reconhecer seus limites de conhecimento. Esse input factual direcionado durante o treinamento de RL permite que o modelo aprenda e internalize estratégias de raciocínio baseadas em fatos. Ao recompensar diretamente a adesão aos fatos dentro das etapas de raciocínio, o KnowRL promove um processo de pensamento mais confiável. Resultados experimentais em três conjuntos de dados de avaliação de alucinação e dois conjuntos de dados de avaliação de raciocínio demonstram que o KnowRL mitiga efetivamente as alucinações em modelos de pensamento lento, mantendo suas capacidades originais de raciocínio robusto. Nosso código está disponível em https://github.com/zjunlp/KnowRL.
English
Large Language Models (LLMs), particularly slow-thinking models, often exhibit severe hallucination, outputting incorrect content due to an inability to accurately recognize knowledge boundaries during reasoning. While Reinforcement Learning (RL) can enhance complex reasoning abilities, its outcome-oriented reward mechanism often lacks factual supervision over the thinking process, further exacerbating the hallucination problem. To address the high hallucination in slow-thinking models, we propose Knowledge-enhanced RL, KnowRL. KnowRL guides models to perform fact-based slow thinking by integrating a factuality reward, based on knowledge verification, into the RL training process, helping them recognize their knowledge boundaries. KnowRL guides models to perform fact-based slow thinking by integrating a factuality reward, based on knowledge verification, into the RL training process, helping them recognize their knowledge boundaries. This targeted factual input during RL training enables the model to learn and internalize fact-based reasoning strategies. By directly rewarding adherence to facts within the reasoning steps, KnowRL fosters a more reliable thinking process. Experimental results on three hallucination evaluation datasets and two reasoning evaluation datasets demonstrate that KnowRL effectively mitigates hallucinations in slow-thinking models while maintaining their original strong reasoning capabilities. Our code is available at https://github.com/zjunlp/KnowRL.
PDF71June 25, 2025