ChatPaper.aiChatPaper

BARREL: Grenzbewusstes Reasoning für faktenbasierte und zuverlässige LRMs

BARREL: Boundary-Aware Reasoning for Factual and Reliable LRMs

May 18, 2025
Autoren: Junxiao Yang, Jinzhe Tu, Haoran Liu, Xiaoce Wang, Chujie Zheng, Zhexin Zhang, Shiyao Cui, Caishun Chen, Tiantian He, Hongning Wang, Yew-Soon Ong, Minlie Huang
cs.AI

Zusammenfassung

Jüngste Fortschritte bei Large Reasoning Models (LRMs) haben beeindruckende Fähigkeiten im mathematischen und logischen Denken gezeigt. Allerdings geben aktuelle LRMs selten Unwissenheit zu oder antworten mit „Ich weiß es nicht“. Stattdessen liefern sie oft falsche Antworten, während sie unangemessenes Selbstvertrauen zeigen, was Bedenken hinsichtlich ihrer faktischen Zuverlässigkeit aufwirft. In dieser Arbeit identifizieren wir zwei pathologische Denkmuster, die durch Überdenken gekennzeichnet sind und zu übermütigen und falschen Antworten beitragen: Last-Minute-Raten und Gedankenspiralen. Um diese Probleme anzugehen, schlagen wir BARREL vor – ein neuartiges Framework, das präzises und grenzbewusstes faktisches Denken fördert. Unsere Experimente zeigen, dass BARREL-Training die Zuverlässigkeit von DeepSeek-R1-Distill-Llama-8B von 39,33 % auf 61,48 % steigert, während es eine Genauigkeit erreicht, die mit Modellen vergleichbar ist, die auf von R1 generierten Denkdaten feinabgestimmt wurden. Diese Ergebnisse zeigen, dass unsere Pilotstudie inspirierend ist, um zuverlässigere und faktenbasierte System-2-LRMs zu entwickeln.
English
Recent advances in Large Reasoning Models (LRMs) have shown impressive capabilities in mathematical and logical reasoning. However, current LRMs rarely admit ignorance or respond with "I don't know". Instead, they often produce incorrect answers while showing undue confidence, raising concerns about their factual reliability. In this work, we identify two pathological reasoning patterns characterized by overthinking that contribute to the overconfident and incorrect answers: last-minute guessing and second-thought spiraling. To address these issues, we propose BARREL-a novel framework that promotes concise and boundary-aware factual reasoning. Our experiments show that BARREL-training increases the reliability of DeepSeek-R1-Distill-Llama-8B from 39.33% to 61.48%, while still achieving accuracy comparable to models finetuned on reasoning data generated by R1. These results demonstrate that our pilot study is inspiring to build more reliable and factual System 2 LRMs.

Summary

AI-Generated Summary

PDF102May 22, 2025