ChatPaper.aiChatPaper

Diversitätsgesteuerte Argumentation für subjektive Fragen

Diversity-Enhanced Reasoning for Subjective Questions

July 27, 2025
papers.authors: Yumeng Wang, Zhiyuan Fan, Jiayu Liu, Yi R. Fung
cs.AI

papers.abstract

Große Reasoning-Modelle (LRM) mit langen Chain-of-Thought (CoT)-Fähigkeiten haben bei objektiven Aufgaben wie mathematischem Reasoning und Programmierung starke Leistungen gezeigt. Ihre Wirksamkeit bei subjektiven Fragen, die aus verschiedenen Perspektiven unterschiedliche Antworten haben können, ist jedoch durch eine Tendenz zu homogenem Reasoning eingeschränkt, die durch die Abhängigkeit von einer einzigen Grundwahrheit beim überwachten Feinabstimmen und überprüfbaren Belohnungen beim Reinforcement Learning eingeführt wird. Motiviert durch die Erkenntnis, dass die Erhöhung der Rollenperspektiven die Leistung konsequent verbessert, schlagen wir MultiRole-R1 vor, ein diversitätsgestärktes Framework mit mehreren Rollenperspektiven, um die Genauigkeit und Vielfalt bei subjektiven Reasoning-Aufgaben zu verbessern. MultiRole-R1 verfügt über eine unüberwachte Datenkonstruktionspipeline, die Reasoning-Ketten generiert, die verschiedene Rollenperspektiven einbeziehen. Wir setzen weiterhin Reinforcement Learning über Group Relative Policy Optimization (GRPO) mit Belohnungsformung ein, indem wir Vielfalt als zusätzliches Belohnungssignal neben der überprüfbaren Belohnung verwenden. Mit speziell entwickelten Belohnungsfunktionen fördern wir erfolgreich Perspektivenvielfalt und lexikalische Vielfalt und decken eine positive Beziehung zwischen Reasoning-Vielfalt und Genauigkeit auf. Unser Experiment auf sechs Benchmarks demonstriert die Wirksamkeit und Generalisierbarkeit von MultiRole-R1 bei der Verbesserung sowohl subjektiven als auch objektiven Reasonings und zeigt das Potenzial von diversitätsgestärktem Training in LRMs auf.
English
Large reasoning models (LRM) with long chain-of-thought (CoT) capabilities have shown strong performance on objective tasks, such as math reasoning and coding. However, their effectiveness on subjective questions that may have different responses from different perspectives is still limited by a tendency towards homogeneous reasoning, introduced by the reliance on a single ground truth in supervised fine-tuning and verifiable reward in reinforcement learning. Motivated by the finding that increasing role perspectives consistently improves performance, we propose MultiRole-R1, a diversity-enhanced framework with multiple role perspectives, to improve the accuracy and diversity in subjective reasoning tasks. MultiRole-R1 features an unsupervised data construction pipeline that generates reasoning chains that incorporate diverse role perspectives. We further employ reinforcement learning via Group Relative Policy Optimization (GRPO) with reward shaping, by taking diversity as a reward signal in addition to the verifiable reward. With specially designed reward functions, we successfully promote perspective diversity and lexical diversity, uncovering a positive relation between reasoning diversity and accuracy. Our experiment on six benchmarks demonstrates MultiRole-R1's effectiveness and generalizability in enhancing both subjective and objective reasoning, showcasing the potential of diversity-enhanced training in LRMs.
PDF222July 29, 2025