ChatPaper.aiChatPaper.ai
Startseite

arXiv

HuggingFace

PreiseKontoArbeitsbereich

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

KI-Forschungspapiere Täglich

Täglich kuratierte KI-Forschungspapiere mit Übersetzungen

NovelSeek: Wenn der Agent zum Wissenschaftler wird – Aufbau eines geschlossenen Systems von der Hypothese zur Verifizierung
NovelSeek: When Agent Becomes the Scientist -- Building Closed-Loop System from Hypothesis to Verification

NovelSeek Team, Bo Zhang, Shiyang Feng, Xiangchao Yan, Jiakang Yuan, Zhiyin Yu, Xiaohan He, Songtao Huang, Shaowei Hou, Zheng Nie, Zhilong Wang, Jinyao Liu, Runmin Ma, Tianshuo Peng, Peng Ye, Dongzhan Zhou, Shufei Zhang, Xiaosong Wang, Yilan Zhang, Meng Li, Zhongying Tu, Xiangyu Yue, Wangli Ouyang, Bowen Zhou, Lei Bai•May 22, 2025•861

Skalierung des Denkens, Verlust der Kontrolle: Bewertung der Befolgung von Anweisungen in großen Denkmodellen
Scaling Reasoning, Losing Control: Evaluating Instruction Following in Large Reasoning Models

Tingchen Fu, Jiawei Gu, Yafu Li, Xiaoye Qu, Yu Cheng•May 20, 2025•492

Tool-Star: Stärkung eines Multi-Tool-Reasoners mit LLM-Gehirn durch Reinforcement Learning
Tool-Star: Empowering LLM-Brained Multi-Tool Reasoner via Reinforcement Learning

Guanting Dong, Yifei Chen, Xiaoxi Li, Jiajie Jin, Hongjin Qian, Yutao Zhu, Hangyu Mao, Guorui Zhou, Zhicheng Dou, Ji-Rong Wen•May 22, 2025•432

Pixel Reasoner: Anreiz für Pixelraum-basiertes Denken durch Neugier-getriebenes Reinforcement Learning
Pixel Reasoner: Incentivizing Pixel-Space Reasoning with Curiosity-Driven Reinforcement Learning

Alex Su, Haozhe Wang, Weimin Ren, Fangzhen Lin, Wenhu Chen•May 21, 2025•372

KRIS-Bench: Benchmarking der nächsten Generation intelligenter Bildbearbeitungsmodelle
KRIS-Bench: Benchmarking Next-Level Intelligent Image Editing Models

Yongliang Wu, Zonghui Li, Xinting Hu, Xinyu Ye, Xianfang Zeng, Gang Yu, Wenbo Zhu, Bernt Schiele, Ming-Hsuan Yang, Xu Yang•May 22, 2025•362

QuickVideo: Echtzeit-Verständnis langer Videos durch System-Algorithmus-Co-Design
QuickVideo: Real-Time Long Video Understanding with System Algorithm Co-Design

Benjamin Schneider, Dongfu Jiang, Chao Du, Tianyu Pang, Wenhu Chen•May 22, 2025•302

GoT-R1: Freisetzung der Schlussfolgerungsfähigkeit von MLLM für die visuelle Generierung mit Reinforcement Learning
GoT-R1: Unleashing Reasoning Capability of MLLM for Visual Generation with Reinforcement Learning

Chengqi Duan, Rongyao Fang, Yuqing Wang, Kun Wang, Linjiang Huang, Xingyu Zeng, Hongsheng Li, Xihui Liu•May 22, 2025•232

LLaDA-V: Große Sprachdiffusionsmodelle mit visuellem Instruktions-Finetuning
LLaDA-V: Large Language Diffusion Models with Visual Instruction Tuning

Zebin You, Shen Nie, Xiaolu Zhang, Jun Hu, Jun Zhou, Zhiwu Lu, Ji-Rong Wen, Chongxuan Li•May 22, 2025•223

Effiziente Skalierung von Diffusions-Transformatoren mittels μP
Scaling Diffusion Transformers Efficiently via μP

Chenyu Zheng, Xinyu Zhang, Rongzhen Wang, Wei Huang, Zhi Tian, Weilin Huang, Jun Zhu, Chongxuan Li•May 21, 2025•212

Risikoscheues Reinforcement Learning mit Itakura-Saito-Verlust
Risk-Averse Reinforcement Learning with Itakura-Saito Loss

Igor Udovichenko, Olivier Croissant, Anita Toleutaeva, Evgeny Burnaev, Alexander Korotin•May 22, 2025•202

Verständnis der Fähigkeiten generativer KI in alltäglichen Bildbearbeitungsaufgaben
Understanding Generative AI Capabilities in Everyday Image Editing Tasks

Mohammad Reza Taesiri, Brandon Collins, Logan Bolton, Viet Dac Lai, Franck Dernoncourt, Trung Bui, Anh Totti Nguyen•May 22, 2025•202

AceReason-Nemotron: Fortschritte in mathematischem und programmtechnischem Denken durch Reinforcement Learning
AceReason-Nemotron: Advancing Math and Code Reasoning through Reinforcement Learning

Yang Chen, Zhuolin Yang, Zihan Liu, Chankyu Lee, Peng Xu, Mohammad Shoeybi, Bryan Catanzaro, Wei Ping•May 22, 2025•182

Achte auf die Lücke: Überbrückung des Gedankensprungs für verbessertes Chain-of-Thought-Tuning
Mind the Gap: Bridging Thought Leap for Improved Chain-of-Thought Tuning

Haolei Xu, Yuchen Yan, Yongliang Shen, Wenqi Zhang, Guiyang Hou, Shengpei Jiang, Kaitao Song, Weiming Lu, Jun Xiao, Yueting Zhuang•May 20, 2025•181

Lassen Sie LLMs durch Selbstbrems-Tuning vom Überdenken befreien
Let LLMs Break Free from Overthinking via Self-Braking Tuning

Haoran Zhao, Yuchen Yan, Yongliang Shen, Haolei Xu, Wenqi Zhang, Kaitao Song, Jian Shao, Weiming Lu, Jun Xiao, Yueting Zhuang•May 20, 2025•182

VideoGameQA-Bench: Bewertung von Vision-Sprache-Modellen für die Qualitätssicherung von Videospielen
VideoGameQA-Bench: Evaluating Vision-Language Models for Video Game Quality Assurance

Mohammad Reza Taesiri, Abhijay Ghildyal, Saman Zadtootaghaj, Nabajeet Barman, Cor-Paul Bezemer•May 21, 2025•172

Dimple: Diskretes Diffusions-Multimodales Großes Sprachmodell mit Parallel-Decodierung
Dimple: Discrete Diffusion Multimodal Large Language Model with Parallel Decoding

Runpeng Yu, Xinyin Ma, Xinchao Wang•May 22, 2025•142

Backdoor-Bereinigung ohne externe Anleitung bei der Feinabstimmung von MLLMs
Backdoor Cleaning without External Guidance in MLLM Fine-tuning

Xuankun Rong, Wenke Huang, Jian Liang, Jinhe Bi, Xun Xiao, Yiming Li, Bo Du, Mang Ye•May 22, 2025•142

SophiaVL-R1: Stärkung des logischen Denkens von MLLMs durch Belohnungssysteme für Denkprozesse
SophiaVL-R1: Reinforcing MLLMs Reasoning with Thinking Reward

Kaixuan Fan, Kaituo Feng, Haoming Lyu, Dongzhan Zhou, Xiangyu Yue•May 22, 2025•122

Korrektur von Daten, die die Leistung beeinträchtigen: Kaskadierte LLMs zur Neukennzeichnung schwieriger Negativbeispiele für robuste Informationsbeschaffung
Fixing Data That Hurts Performance: Cascading LLMs to Relabel Hard Negatives for Robust Information Retrieval

Nandan Thakur, Crystina Zhang, Xueguang Ma, Jimmy Lin•May 22, 2025•123

Effiziente videobasierte Generierung ohne Training durch dynamische Token-Bearbeitung
Training-Free Efficient Video Generation via Dynamic Token Carving

Yuechen Zhang, Jinbo Xing, Bin Xia, Shaoteng Liu, Bohao Peng, Xin Tao, Pengfei Wan, Eric Lo, Jiaya Jia•May 22, 2025•122

SpatialScore: Auf dem Weg zu einer einheitlichen Bewertung für multimodales räumliches Verständnis
SpatialScore: Towards Unified Evaluation for Multimodal Spatial Understanding

Haoning Wu, Xiao Huang, Yaohui Chen, Ya Zhang, Yanfeng Wang, Weidi Xie•May 22, 2025•102

LaViDa: Ein großes Diffusionssprachmodell für multimodales Verständnis
LaViDa: A Large Diffusion Language Model for Multimodal Understanding

Shufan Li, Konstantinos Kallidromitis, Hritik Bansal, Akash Gokul, Yusuke Kato, Kazuki Kozuka, Jason Kuen, Zhe Lin, Kai-Wei Chang, Aditya Grover•May 22, 2025•102

TinyV: Die Reduzierung von Falsch-Negativen in der Verifikation verbessert das Reinforcement Learning für das Reasoning mit großen Sprachmodellen
TinyV: Reducing False Negatives in Verification Improves RL for LLM Reasoning

Zhangchen Xu, Yuetai Li, Fengqing Jiang, Bhaskar Ramasubramanian, Luyao Niu, Bill Yuchen Lin, Radha Poovendran•May 20, 2025•102

Denken oder nicht? Selektives Schließen durch Reinforcement Learning für Vision-Sprach-Modelle
Think or Not? Selective Reasoning via Reinforcement Learning for Vision-Language Models

Jiaqi Wang, Kevin Qinghong Lin, James Cheng, Mike Zheng Shou•May 22, 2025•72

WebAgent-R1: Training von Web-Agenten durch end-to-end Multi-Turn Reinforcement Learning
WebAgent-R1: Training Web Agents via End-to-End Multi-Turn Reinforcement Learning

Zhepei Wei, Wenlin Yao, Yao Liu, Weizhi Zhang, Qin Lu, Liang Qiu, Changlong Yu, Puyang Xu, Chao Zhang, Bing Yin, Hyokun Yun, Lihong Li•May 22, 2025•72

Trainingsfreies Schlussfolgern und Reflektieren in MLLMs
Training-Free Reasoning and Reflection in MLLMs

Hongchen Wei, Zhenzhong Chen•May 22, 2025•73

GRIT: MLLMs beibringen, mit Bildern zu denken
GRIT: Teaching MLLMs to Think with Images

Yue Fan, Xuehai He, Diji Yang, Kaizhi Zheng, Ching-Chen Kuo, Yuting Zheng, Sravana Jyothi Narayanaraju, Xinze Guan, Xin Eric Wang•May 21, 2025•72

AGENTIF: Benchmarking der Befolgung von Anweisungen durch große Sprachmodelle in agentenbasierten Szenarien
AGENTIF: Benchmarking Instruction Following of Large Language Models in Agentic Scenarios

Yunjia Qi, Hao Peng, Xiaozhi Wang, Amy Xin, Youfeng Liu, Bin Xu, Lei Hou, Juanzi Li•May 22, 2025•62

VLM-R^3: Regionenerkennung, -schlussfolgerung und -verfeinerung für verbesserte multimodale Gedankenketten
VLM-R^3: Region Recognition, Reasoning, and Refinement for Enhanced Multimodal Chain-of-Thought

Chaoya Jiang, Yongrui Heng, Wei Ye, Han Yang, Haiyang Xu, Ming Yan, Ji Zhang, Fei Huang, Shikun Zhang•May 22, 2025•62

OViP: Online Präferenzlernen für Vision-Sprache
OViP: Online Vision-Language Preference Learning

Shujun Liu, Siyuan Wang, Zejun Li, Jianxiang Wang, Cheng Zeng, Zhongyu Wei•May 21, 2025•62

Schulung von Schritt-für-Schritt-Argumentationsverifizierern mit formalen Verifikationswerkzeugen
Training Step-Level Reasoning Verifiers with Formal Verification Tools

Ryo Kamoi, Yusen Zhang, Nan Zhang, Sarkar Snigdha Sarathi Das, Rui Zhang•May 21, 2025•62

SafeKey: Verstärkung von Aha-Moment-Erkenntnissen für Sicherheitsüberlegungen
SafeKey: Amplifying Aha-Moment Insights for Safety Reasoning

Kaiwen Zhou, Xuandong Zhao, Gaowen Liu, Jayanth Srinivasa, Aosong Feng, Dawn Song, Xin Eric Wang•May 22, 2025•52

Reinforcement Learning verfeinert kleine Teilnetzwerke in großen Sprachmodellen.
Reinforcement Learning Finetunes Small Subnetworks in Large Language Models

Sagnik Mukherjee, Lifan Yuan, Dilek Hakkani-Tur, Hao Peng•May 16, 2025•52

Think-RM: Ermöglichung langfristiger Entscheidungsfindung in generativen Belohnungsmodellen
Think-RM: Enabling Long-Horizon Reasoning in Generative Reward Models

Ilgee Hong, Changlong Yu, Liang Qiu, Weixiang Yan, Zhenghao Xu, Haoming Jiang, Qingru Zhang, Qin Lu, Xin Liu, Chao Zhang, Tuo Zhao•May 22, 2025•42

Lassen wir Androiden von elektrischen Schafen träumen: Ein menschenähnliches Rahmenwerk zur Bildimplikationsverständnis und -schlussfolgerung
Let Androids Dream of Electric Sheep: A Human-like Image Implication Understanding and Reasoning Framework

Chenhao Zhang, Yazhe Niu•May 22, 2025•33

Multi-SpatialMLLM: Räumliches Verständnis über mehrere Frames mit Multi-Modalen Großen Sprachmodellen
Multi-SpatialMLLM: Multi-Frame Spatial Understanding with Multi-Modal Large Language Models

Runsen Xu, Weiyao Wang, Hao Tang, Xingyu Chen, Xiaodong Wang, Fu-Jen Chu, Dahua Lin, Matt Feiszli, Kevin J. Liang•May 22, 2025•32

Robo2VLM: Visuelle Fragebeantwortung aus groß angelegten Robotermanipulationsdatensätzen in realen Umgebungen
Robo2VLM: Visual Question Answering from Large-Scale In-the-Wild Robot Manipulation Datasets

Kaiyuan Chen, Shuangyu Xie, Zehan Ma, Ken Goldberg•May 21, 2025•32

Steuerung großer Sprachmodelle zur Personalisierung der maschinellen Übersetzung
Steering Large Language Models for Machine Translation Personalization

Daniel Scalena, Gabriele Sarti, Arianna Bisazza, Elisabetta Fersini, Malvina Nissim•May 22, 2025•22

Wann geben LLMs ihre Fehler zu? Die Rolle des Modellglaubens bei der Rücknahme verstehen
When Do LLMs Admit Their Mistakes? Understanding the Role of Model Belief in Retraction

Yuqing Yang, Robin Jia•May 22, 2025•22

Datumsfragmente: Ein versteckter Engpass der Tokenisierung für zeitliches Schließen
Date Fragments: A Hidden Bottleneck of Tokenization for Temporal Reasoning

Gagan Bhatia, Maxime Peyrard, Wei Zhao•May 22, 2025•22

Wie nehmen große Vision-Sprach-Modelle Text in Bildern wahr? Die besondere Rolle von OCR-Köpfen enthüllt
How Do Large Vision-Language Models See Text in Image? Unveiling the Distinctive Role of OCR Heads

Ingeol Baek, Hwan Chang, Sunghyun Ryu, Hwanhee Lee•May 21, 2025•22

RAVENEA: Ein Benchmark für multimodale, retrieval-augmentierte Verständnisbildung visueller Kultur
RAVENEA: A Benchmark for Multimodal Retrieval-Augmented Visual Culture Understanding

Jiaang Li, Yifei Yuan, Wenyan Li, Mohammad Aliannejadi, Daniel Hershcovich, Anders Søgaard, Ivan Vulić, Wenxuan Zhang, Paul Pu Liang, Yang Deng, Serge Belongie•May 20, 2025•22

MUG-Eval: Ein Proxy-Evaluierungsrahmen für mehrsprachige Generierungsfähigkeiten in jeder Sprache
MUG-Eval: A Proxy Evaluation Framework for Multilingual Generation Capabilities in Any Language

Seyoung Song, Seogyeong Jeong, Eunsu Kim, Jiho Jin, Dongkwan Kim, Jay Shin, Alice Oh•May 20, 2025•22

RoPECraft: Trainingsfreie Bewegungstransfer mit trajektoriengeführter RoPE-Optimierung auf Diffusionstransformern
RoPECraft: Training-Free Motion Transfer with Trajectory-Guided RoPE Optimization on Diffusion Transformers

Ahmet Berke Gokmen, Yigit Ekin, Bahri Batuhan Bilecen, Aysegul Dundar•May 19, 2025•22

SPhyR: Benchmark für räumlich-physikalisches Schließen zur Materialverteilung
SPhyR: Spatial-Physical Reasoning Benchmark on Material Distribution

Philipp D. Siedler•May 21, 2025•12

gen2seg: Generative Modelle ermöglichen generalisierbare Instanzsegmentierung
gen2seg: Generative Models Enable Generalizable Instance Segmentation

Om Khangaonkar, Hamed Pirsiavash•May 21, 2025•12

SAKURA: Zum Multi-Hop-Reasoning großer Audio-Sprachmodelle basierend auf Sprach- und Audioinformationen
SAKURA: On the Multi-hop Reasoning of Large Audio-Language Models Based on Speech and Audio Information

Chih-Kai Yang, Neo Ho, Yen-Ting Piao, Hung-yi Lee•May 19, 2025•02