ChatPaper.ai
Menü öffnen
Startseite
Tägliche Publikationen
arXiv
HuggingFace
Preise
Konto
Arbeitsbereich
🇩🇪
Deutsch
Loading...
•
•
•
•
•
•
•
•
•
•
KI-Forschungspapiere Täglich
Täglich kuratierte KI-Forschungspapiere mit Übersetzungen
May 23rd, 2025
NovelSeek: Wenn der Agent zum Wissenschaftler wird – Aufbau eines geschlossenen Systems von der Hypothese zur Verifizierung
NovelSeek: When Agent Becomes the Scientist -- Building Closed-Loop System from Hypothesis to Verification
NovelSeek Team, Bo Zhang, Shiyang Feng, Xiangchao Yan, Jiakang Yuan, Zhiyin Yu, Xiaohan He, Songtao Huang, Shaowei Hou, Zheng Nie, Zhilong Wang, Jinyao Liu, Runmin Ma, Tianshuo Peng, Peng Ye, Dongzhan Zhou, Shufei Zhang, Xiaosong Wang, Yilan Zhang, Meng Li, Zhongying Tu, Xiangyu Yue, Wangli Ouyang, Bowen Zhou, Lei Bai
•
May 22, 2025
•
86
1
Skalierung des Denkens, Verlust der Kontrolle: Bewertung der Befolgung von Anweisungen in großen Denkmodellen
Scaling Reasoning, Losing Control: Evaluating Instruction Following in Large Reasoning Models
Tingchen Fu, Jiawei Gu, Yafu Li, Xiaoye Qu, Yu Cheng
•
May 20, 2025
•
49
2
Tool-Star: Stärkung eines Multi-Tool-Reasoners mit LLM-Gehirn durch Reinforcement Learning
Tool-Star: Empowering LLM-Brained Multi-Tool Reasoner via Reinforcement Learning
Guanting Dong, Yifei Chen, Xiaoxi Li, Jiajie Jin, Hongjin Qian, Yutao Zhu, Hangyu Mao, Guorui Zhou, Zhicheng Dou, Ji-Rong Wen
•
May 22, 2025
•
43
2
Pixel Reasoner: Anreiz für Pixelraum-basiertes Denken durch Neugier-getriebenes Reinforcement Learning
Pixel Reasoner: Incentivizing Pixel-Space Reasoning with Curiosity-Driven Reinforcement Learning
Alex Su, Haozhe Wang, Weimin Ren, Fangzhen Lin, Wenhu Chen
•
May 21, 2025
•
37
2
KRIS-Bench: Benchmarking der nächsten Generation intelligenter Bildbearbeitungsmodelle
KRIS-Bench: Benchmarking Next-Level Intelligent Image Editing Models
Yongliang Wu, Zonghui Li, Xinting Hu, Xinyu Ye, Xianfang Zeng, Gang Yu, Wenbo Zhu, Bernt Schiele, Ming-Hsuan Yang, Xu Yang
•
May 22, 2025
•
36
2
QuickVideo: Echtzeit-Verständnis langer Videos durch System-Algorithmus-Co-Design
QuickVideo: Real-Time Long Video Understanding with System Algorithm Co-Design
Benjamin Schneider, Dongfu Jiang, Chao Du, Tianyu Pang, Wenhu Chen
•
May 22, 2025
•
30
2
GoT-R1: Freisetzung der Schlussfolgerungsfähigkeit von MLLM für die visuelle Generierung mit Reinforcement Learning
GoT-R1: Unleashing Reasoning Capability of MLLM for Visual Generation with Reinforcement Learning
Chengqi Duan, Rongyao Fang, Yuqing Wang, Kun Wang, Linjiang Huang, Xingyu Zeng, Hongsheng Li, Xihui Liu
•
May 22, 2025
•
23
2
LLaDA-V: Große Sprachdiffusionsmodelle mit visuellem Instruktions-Finetuning
LLaDA-V: Large Language Diffusion Models with Visual Instruction Tuning
Zebin You, Shen Nie, Xiaolu Zhang, Jun Hu, Jun Zhou, Zhiwu Lu, Ji-Rong Wen, Chongxuan Li
•
May 22, 2025
•
22
3
Effiziente Skalierung von Diffusions-Transformatoren mittels μP
Scaling Diffusion Transformers Efficiently via μP
Chenyu Zheng, Xinyu Zhang, Rongzhen Wang, Wei Huang, Zhi Tian, Weilin Huang, Jun Zhu, Chongxuan Li
•
May 21, 2025
•
21
2
Risikoscheues Reinforcement Learning mit Itakura-Saito-Verlust
Risk-Averse Reinforcement Learning with Itakura-Saito Loss
Igor Udovichenko, Olivier Croissant, Anita Toleutaeva, Evgeny Burnaev, Alexander Korotin
•
May 22, 2025
•
20
2
Verständnis der Fähigkeiten generativer KI in alltäglichen Bildbearbeitungsaufgaben
Understanding Generative AI Capabilities in Everyday Image Editing Tasks
Mohammad Reza Taesiri, Brandon Collins, Logan Bolton, Viet Dac Lai, Franck Dernoncourt, Trung Bui, Anh Totti Nguyen
•
May 22, 2025
•
20
2
AceReason-Nemotron: Fortschritte in mathematischem und programmtechnischem Denken durch Reinforcement Learning
AceReason-Nemotron: Advancing Math and Code Reasoning through Reinforcement Learning
Yang Chen, Zhuolin Yang, Zihan Liu, Chankyu Lee, Peng Xu, Mohammad Shoeybi, Bryan Catanzaro, Wei Ping
•
May 22, 2025
•
18
2
Achte auf die Lücke: Überbrückung des Gedankensprungs für verbessertes Chain-of-Thought-Tuning
Mind the Gap: Bridging Thought Leap for Improved Chain-of-Thought Tuning
Haolei Xu, Yuchen Yan, Yongliang Shen, Wenqi Zhang, Guiyang Hou, Shengpei Jiang, Kaitao Song, Weiming Lu, Jun Xiao, Yueting Zhuang
•
May 20, 2025
•
18
1
Lassen Sie LLMs durch Selbstbrems-Tuning vom Überdenken befreien
Let LLMs Break Free from Overthinking via Self-Braking Tuning
Haoran Zhao, Yuchen Yan, Yongliang Shen, Haolei Xu, Wenqi Zhang, Kaitao Song, Jian Shao, Weiming Lu, Jun Xiao, Yueting Zhuang
•
May 20, 2025
•
18
2
VideoGameQA-Bench: Bewertung von Vision-Sprache-Modellen für die Qualitätssicherung von Videospielen
VideoGameQA-Bench: Evaluating Vision-Language Models for Video Game Quality Assurance
Mohammad Reza Taesiri, Abhijay Ghildyal, Saman Zadtootaghaj, Nabajeet Barman, Cor-Paul Bezemer
•
May 21, 2025
•
17
2
Dimple: Diskretes Diffusions-Multimodales Großes Sprachmodell mit Parallel-Decodierung
Dimple: Discrete Diffusion Multimodal Large Language Model with Parallel Decoding
Runpeng Yu, Xinyin Ma, Xinchao Wang
•
May 22, 2025
•
14
2
Backdoor-Bereinigung ohne externe Anleitung bei der Feinabstimmung von MLLMs
Backdoor Cleaning without External Guidance in MLLM Fine-tuning
Xuankun Rong, Wenke Huang, Jian Liang, Jinhe Bi, Xun Xiao, Yiming Li, Bo Du, Mang Ye
•
May 22, 2025
•
14
2
SophiaVL-R1: Stärkung des logischen Denkens von MLLMs durch Belohnungssysteme für Denkprozesse
SophiaVL-R1: Reinforcing MLLMs Reasoning with Thinking Reward
Kaixuan Fan, Kaituo Feng, Haoming Lyu, Dongzhan Zhou, Xiangyu Yue
•
May 22, 2025
•
12
2
Korrektur von Daten, die die Leistung beeinträchtigen: Kaskadierte LLMs zur Neukennzeichnung schwieriger Negativbeispiele für robuste Informationsbeschaffung
Fixing Data That Hurts Performance: Cascading LLMs to Relabel Hard Negatives for Robust Information Retrieval
Nandan Thakur, Crystina Zhang, Xueguang Ma, Jimmy Lin
•
May 22, 2025
•
12
3
Effiziente videobasierte Generierung ohne Training durch dynamische Token-Bearbeitung
Training-Free Efficient Video Generation via Dynamic Token Carving
Yuechen Zhang, Jinbo Xing, Bin Xia, Shaoteng Liu, Bohao Peng, Xin Tao, Pengfei Wan, Eric Lo, Jiaya Jia
•
May 22, 2025
•
12
2
SpatialScore: Auf dem Weg zu einer einheitlichen Bewertung für multimodales räumliches Verständnis
SpatialScore: Towards Unified Evaluation for Multimodal Spatial Understanding
Haoning Wu, Xiao Huang, Yaohui Chen, Ya Zhang, Yanfeng Wang, Weidi Xie
•
May 22, 2025
•
10
2
LaViDa: Ein großes Diffusionssprachmodell für multimodales Verständnis
LaViDa: A Large Diffusion Language Model for Multimodal Understanding
Shufan Li, Konstantinos Kallidromitis, Hritik Bansal, Akash Gokul, Yusuke Kato, Kazuki Kozuka, Jason Kuen, Zhe Lin, Kai-Wei Chang, Aditya Grover
•
May 22, 2025
•
10
2
TinyV: Die Reduzierung von Falsch-Negativen in der Verifikation verbessert das Reinforcement Learning für das Reasoning mit großen Sprachmodellen
TinyV: Reducing False Negatives in Verification Improves RL for LLM Reasoning
Zhangchen Xu, Yuetai Li, Fengqing Jiang, Bhaskar Ramasubramanian, Luyao Niu, Bill Yuchen Lin, Radha Poovendran
•
May 20, 2025
•
10
2
Denken oder nicht? Selektives Schließen durch Reinforcement Learning für Vision-Sprach-Modelle
Think or Not? Selective Reasoning via Reinforcement Learning for Vision-Language Models
Jiaqi Wang, Kevin Qinghong Lin, James Cheng, Mike Zheng Shou
•
May 22, 2025
•
7
2
WebAgent-R1: Training von Web-Agenten durch end-to-end Multi-Turn Reinforcement Learning
WebAgent-R1: Training Web Agents via End-to-End Multi-Turn Reinforcement Learning
Zhepei Wei, Wenlin Yao, Yao Liu, Weizhi Zhang, Qin Lu, Liang Qiu, Changlong Yu, Puyang Xu, Chao Zhang, Bing Yin, Hyokun Yun, Lihong Li
•
May 22, 2025
•
7
2
Trainingsfreies Schlussfolgern und Reflektieren in MLLMs
Training-Free Reasoning and Reflection in MLLMs
Hongchen Wei, Zhenzhong Chen
•
May 22, 2025
•
7
3
GRIT: MLLMs beibringen, mit Bildern zu denken
GRIT: Teaching MLLMs to Think with Images
Yue Fan, Xuehai He, Diji Yang, Kaizhi Zheng, Ching-Chen Kuo, Yuting Zheng, Sravana Jyothi Narayanaraju, Xinze Guan, Xin Eric Wang
•
May 21, 2025
•
7
2
AGENTIF: Benchmarking der Befolgung von Anweisungen durch große Sprachmodelle in agentenbasierten Szenarien
AGENTIF: Benchmarking Instruction Following of Large Language Models in Agentic Scenarios
Yunjia Qi, Hao Peng, Xiaozhi Wang, Amy Xin, Youfeng Liu, Bin Xu, Lei Hou, Juanzi Li
•
May 22, 2025
•
6
2
VLM-R^3: Regionenerkennung, -schlussfolgerung und -verfeinerung für verbesserte multimodale Gedankenketten
VLM-R^3: Region Recognition, Reasoning, and Refinement for Enhanced Multimodal Chain-of-Thought
Chaoya Jiang, Yongrui Heng, Wei Ye, Han Yang, Haiyang Xu, Ming Yan, Ji Zhang, Fei Huang, Shikun Zhang
•
May 22, 2025
•
6
2
OViP: Online Präferenzlernen für Vision-Sprache
OViP: Online Vision-Language Preference Learning
Shujun Liu, Siyuan Wang, Zejun Li, Jianxiang Wang, Cheng Zeng, Zhongyu Wei
•
May 21, 2025
•
6
2
Schulung von Schritt-für-Schritt-Argumentationsverifizierern mit formalen Verifikationswerkzeugen
Training Step-Level Reasoning Verifiers with Formal Verification Tools
Ryo Kamoi, Yusen Zhang, Nan Zhang, Sarkar Snigdha Sarathi Das, Rui Zhang
•
May 21, 2025
•
6
2
SafeKey: Verstärkung von Aha-Moment-Erkenntnissen für Sicherheitsüberlegungen
SafeKey: Amplifying Aha-Moment Insights for Safety Reasoning
Kaiwen Zhou, Xuandong Zhao, Gaowen Liu, Jayanth Srinivasa, Aosong Feng, Dawn Song, Xin Eric Wang
•
May 22, 2025
•
5
2
Reinforcement Learning verfeinert kleine Teilnetzwerke in großen Sprachmodellen.
Reinforcement Learning Finetunes Small Subnetworks in Large Language Models
Sagnik Mukherjee, Lifan Yuan, Dilek Hakkani-Tur, Hao Peng
•
May 16, 2025
•
5
2
Think-RM: Ermöglichung langfristiger Entscheidungsfindung in generativen Belohnungsmodellen
Think-RM: Enabling Long-Horizon Reasoning in Generative Reward Models
Ilgee Hong, Changlong Yu, Liang Qiu, Weixiang Yan, Zhenghao Xu, Haoming Jiang, Qingru Zhang, Qin Lu, Xin Liu, Chao Zhang, Tuo Zhao
•
May 22, 2025
•
4
2
Lassen wir Androiden von elektrischen Schafen träumen: Ein menschenähnliches Rahmenwerk zur Bildimplikationsverständnis und -schlussfolgerung
Let Androids Dream of Electric Sheep: A Human-like Image Implication Understanding and Reasoning Framework
Chenhao Zhang, Yazhe Niu
•
May 22, 2025
•
3
3
Multi-SpatialMLLM: Räumliches Verständnis über mehrere Frames mit Multi-Modalen Großen Sprachmodellen
Multi-SpatialMLLM: Multi-Frame Spatial Understanding with Multi-Modal Large Language Models
Runsen Xu, Weiyao Wang, Hao Tang, Xingyu Chen, Xiaodong Wang, Fu-Jen Chu, Dahua Lin, Matt Feiszli, Kevin J. Liang
•
May 22, 2025
•
3
2
Robo2VLM: Visuelle Fragebeantwortung aus groß angelegten Robotermanipulationsdatensätzen in realen Umgebungen
Robo2VLM: Visual Question Answering from Large-Scale In-the-Wild Robot Manipulation Datasets
Kaiyuan Chen, Shuangyu Xie, Zehan Ma, Ken Goldberg
•
May 21, 2025
•
3
2
Steuerung großer Sprachmodelle zur Personalisierung der maschinellen Übersetzung
Steering Large Language Models for Machine Translation Personalization
Daniel Scalena, Gabriele Sarti, Arianna Bisazza, Elisabetta Fersini, Malvina Nissim
•
May 22, 2025
•
2
2
Wann geben LLMs ihre Fehler zu? Die Rolle des Modellglaubens bei der Rücknahme verstehen
When Do LLMs Admit Their Mistakes? Understanding the Role of Model Belief in Retraction
Yuqing Yang, Robin Jia
•
May 22, 2025
•
2
2
Datumsfragmente: Ein versteckter Engpass der Tokenisierung für zeitliches Schließen
Date Fragments: A Hidden Bottleneck of Tokenization for Temporal Reasoning
Gagan Bhatia, Maxime Peyrard, Wei Zhao
•
May 22, 2025
•
2
2
Wie nehmen große Vision-Sprach-Modelle Text in Bildern wahr? Die besondere Rolle von OCR-Köpfen enthüllt
How Do Large Vision-Language Models See Text in Image? Unveiling the Distinctive Role of OCR Heads
Ingeol Baek, Hwan Chang, Sunghyun Ryu, Hwanhee Lee
•
May 21, 2025
•
2
2
RAVENEA: Ein Benchmark für multimodale, retrieval-augmentierte Verständnisbildung visueller Kultur
RAVENEA: A Benchmark for Multimodal Retrieval-Augmented Visual Culture Understanding
Jiaang Li, Yifei Yuan, Wenyan Li, Mohammad Aliannejadi, Daniel Hershcovich, Anders Søgaard, Ivan Vulić, Wenxuan Zhang, Paul Pu Liang, Yang Deng, Serge Belongie
•
May 20, 2025
•
2
2
MUG-Eval: Ein Proxy-Evaluierungsrahmen für mehrsprachige Generierungsfähigkeiten in jeder Sprache
MUG-Eval: A Proxy Evaluation Framework for Multilingual Generation Capabilities in Any Language
Seyoung Song, Seogyeong Jeong, Eunsu Kim, Jiho Jin, Dongkwan Kim, Jay Shin, Alice Oh
•
May 20, 2025
•
2
2
RoPECraft: Trainingsfreie Bewegungstransfer mit trajektoriengeführter RoPE-Optimierung auf Diffusionstransformern
RoPECraft: Training-Free Motion Transfer with Trajectory-Guided RoPE Optimization on Diffusion Transformers
Ahmet Berke Gokmen, Yigit Ekin, Bahri Batuhan Bilecen, Aysegul Dundar
•
May 19, 2025
•
2
2
SPhyR: Benchmark für räumlich-physikalisches Schließen zur Materialverteilung
SPhyR: Spatial-Physical Reasoning Benchmark on Material Distribution
Philipp D. Siedler
•
May 21, 2025
•
1
2
gen2seg: Generative Modelle ermöglichen generalisierbare Instanzsegmentierung
gen2seg: Generative Models Enable Generalizable Instance Segmentation
Om Khangaonkar, Hamed Pirsiavash
•
May 21, 2025
•
1
2
SAKURA: Zum Multi-Hop-Reasoning großer Audio-Sprachmodelle basierend auf Sprach- und Audioinformationen
SAKURA: On the Multi-hop Reasoning of Large Audio-Language Models Based on Speech and Audio Information
Chih-Kai Yang, Neo Ho, Yen-Ting Piao, Hung-yi Lee
•
May 19, 2025
•
0
2