ChatPaper.ai
Menü öffnen
Startseite
Tägliche Publikationen
arXiv
HuggingFace
Preise
Konto
Arbeitsbereich
🇩🇪
Deutsch
Loading...
•
•
•
•
•
•
•
•
•
•
KI-Forschungspapiere Täglich
Täglich kuratierte KI-Forschungspapiere mit Übersetzungen
June 2nd, 2025
ProRL: Verlängertes Reinforcement Learning erweitert die Grenzen des logischen Denkens in großen Sprachmodellen
ProRL: Prolonged Reinforcement Learning Expands Reasoning Boundaries in Large Language Models
Mingjie Liu, Shizhe Diao, Ximing Lu, Jian Hu, Xin Dong, Yejin Choi, Jan Kautz, Yi Dong
•
May 30, 2025
•
112
3
AlphaOne: Denkmodelle, die sowohl langsames als auch schnelles Denken zur Testzeit berücksichtigen
AlphaOne: Reasoning Models Thinking Slow and Fast at Test Time
Junyu Zhang, Runpei Dong, Han Wang, Xuying Ning, Haoran Geng, Peihao Li, Xialin He, Yutong Bai, Jitendra Malik, Saurabh Gupta, Huan Zhang
•
May 30, 2025
•
86
2
Zeitblindheit: Warum Video-Sprachmodelle nicht sehen können, was Menschen sehen?
Time Blindness: Why Video-Language Models Can't See What Humans Can?
Ujjwal Upadhyay, Mukul Ranjan, Zhiqiang Shen, Mohamed Elhoseiny
•
May 30, 2025
•
72
3
Große Sprachmodelle für die Datensynthese
Large Language Models for Data Synthesis
Yihong Tang, Menglin Kong, Lijun Sun
•
May 20, 2025
•
47
2
HardTests: Synthese hochwertiger Testfälle für LLM-Codierung
HardTests: Synthesizing High-Quality Test Cases for LLM Coding
Zhongmou He, Yee Man Choi, Kexun Zhang, Jiabao Ji, Junting Zhou, Dejia Xu, Ivan Bercovich, Aidan Zhang, Lei Li
•
May 30, 2025
•
41
2
Schau nicht nur einmal hin: Auf dem Weg zu multimodalem interaktivem Denken mit selektiver visueller Wiederbesichtigung
Don't Look Only Once: Towards Multimodal Interactive Reasoning with Selective Visual Revisitation
Jiwan Chung, Junhyeok Kim, Siyeol Kim, Jaeyoung Lee, Min Soo Kim, Youngjae Yu
•
May 24, 2025
•
35
2
ViStoryBench: Umfassende Benchmark-Suite zur Visualisierung von Geschichten
ViStoryBench: Comprehensive Benchmark Suite for Story Visualization
Cailin Zhuang, Ailin Huang, Wei Cheng, Jingwei Wu, Yaoqi Hu, Jiaqi Liao, Zhewei Huang, Hongyuan Wang, Xinyao Liao, Weiwei Cai, Hengyuan Xu, Xuanyang Zhang, Xianfang Zeng, Gang Yu, Chi Zhang
•
May 30, 2025
•
30
2
DINO-R1: Förderung von Fähigkeiten zum logischen Denken in visuellen Basismodellen
DINO-R1: Incentivizing Reasoning Capability in Vision Foundation Models
Chenbin Pan, Wenbin He, Zhengzhong Tu, Liu Ren
•
May 29, 2025
•
23
3
EXP-Bench: Kann KI KI-Forschungsexperimente durchführen?
EXP-Bench: Can AI Conduct AI Research Experiments?
Patrick Tser Jern Kon, Jiachen Liu, Xinyi Zhu, Qiuyi Ding, Jingjia Peng, Jiarong Xing, Yibo Huang, Yiming Qiu, Jayanth Srinivasa, Myungjin Lee, Mosharaf Chowdhury, Matei Zaharia, Ang Chen
•
May 30, 2025
•
22
3
Open CaptchaWorld: Eine umfassende webbasierte Plattform zur Testung und Benchmarking von multimodalen LLM-Agenten
Open CaptchaWorld: A Comprehensive Web-based Platform for Testing and Benchmarking Multimodal LLM Agents
Yaxin Luo, Zhaoyi Li, Jiacheng Liu, Jiacheng Cui, Xiaohan Zhao, Zhiqiang Shen
•
May 30, 2025
•
21
2
CoDA: Optimierung des koordinierten Diffusionsrauschens für die Ganzkörpermanipulation von artikulierten Objekten
CoDA: Coordinated Diffusion Noise Optimization for Whole-Body Manipulation of Articulated Objects
Huaijin Pi, Zhi Cen, Zhiyang Dou, Taku Komura
•
May 27, 2025
•
20
2
MoDoMoDo: Multi-Domain-Datenmischungen für multimodales LLM-Reinforcement-Learning
MoDoMoDo: Multi-Domain Data Mixtures for Multimodal LLM Reinforcement Learning
Yiqing Liang, Jielin Qiu, Wenhao Ding, Zuxin Liu, James Tompkin, Mengdi Xu, Mengzhou Xia, Zhengzhong Tu, Laixi Shi, Jiacheng Zhu
•
May 30, 2025
•
18
3
Vision-Language-Modelle sind voreingenommen.
Vision Language Models are Biased
An Vo, Khai-Nguyen Nguyen, Mohammad Reza Taesiri, Vy Tuong Dang, Anh Totti Nguyen, Daeyoung Kim
•
May 29, 2025
•
17
2
EmergentTTS-Eval: Bewertung von TTS-Modellen anhand komplexer prosodischer, expressiver und linguistischer Herausforderungen mithilfe von Model-as-a-Judge
EmergentTTS-Eval: Evaluating TTS Models on Complex Prosodic, Expressiveness, and Linguistic Challenges Using Model-as-a-Judge
Ruskin Raj Manku, Yuzhi Tang, Xingjian Shi, Mu Li, Alex Smola
•
May 29, 2025
•
17
2
MetaFaith: Zuverlässiger Ausdruck von Unsicherheit in natürlicher Sprache durch LLMs
MetaFaith: Faithful Natural Language Uncertainty Expression in LLMs
Gabrielle Kaili-May Liu, Gal Yona, Avi Caciularu, Idan Szpektor, Tim G. J. Rudner, Arman Cohan
•
May 30, 2025
•
16
2
UniGeo: Konsistente Geometrieschätzung durch gezielte Steuerung von Video-Diffusion
UniGeo: Taming Video Diffusion for Unified Consistent Geometry Estimation
Yang-Tian Sun, Xin Yu, Zehuan Huang, Yi-Hua Huang, Yuan-Chen Guo, Ziyi Yang, Yan-Pei Cao, Xiaojuan Qi
•
May 30, 2025
•
15
2
Mehr Denken, weniger Sehen? Bewertung verstärkter Halluzinationen in multimodalen Reasoning-Modellen
More Thinking, Less Seeing? Assessing Amplified Hallucination in Multimodal Reasoning Models
Chengzhi Liu, Zhongxing Xu, Qingyue Wei, Juncheng Wu, James Zou, Xin Eric Wang, Yuyin Zhou, Sheng Liu
•
May 23, 2025
•
14
2
CLaSp: Kontextbasierter Layer-Skip für selbstspekulatives Decodieren
CLaSp: In-Context Layer Skip for Self-Speculative Decoding
Longze Chen, Renke Shan, Huiming Wang, Lu Wang, Ziqiang Liu, Run Luo, Jiawei Wang, Hamid Alinejad-Rokny, Min Yang
•
May 30, 2025
•
13
6
EasyText: Steuerbarer Diffusions-Transformer für mehrsprachiges Text-Rendering
EasyText: Controllable Diffusion Transformer for Multilingual Text Rendering
Runnan Lu, Yuxuan Zhang, Jailing Liu, Haifa Wang, Yiren Song
•
May 30, 2025
•
12
2
Große Sprachmodelle sind lokal lineare Abbildungen.
Large Language Models are Locally Linear Mappings
James R. Golden
•
May 30, 2025
•
11
4
ReasonGen-R1: CoT für autoregressive Bildgenerierungsmodelle durch SFT und RL
ReasonGen-R1: CoT for Autoregressive Image generation models through SFT and RL
Yu Zhang, Yunqi Li, Yifan Yang, Rui Wang, Yuqing Yang, Dai Qi, Jianmin Bao, Dongdong Chen, Chong Luo, Lili Qiu
•
May 30, 2025
•
10
2
Fork-Merge-Decodierung: Verbesserung des multimodalen Verständnisses in audiovisuellen Large Language Models
Fork-Merge Decoding: Enhancing Multimodal Understanding in Audio-Visual Large Language Models
Chaeyoung Jung, Youngjoon Jang, Jongmin Choi, Joon Son Chung
•
May 27, 2025
•
10
2
Nutzung negativer Signale: Verstärkungsdestillation aus Lehrer-Daten für das logische Denken von LLMs
Harnessing Negative Signals: Reinforcement Distillation from Teacher Data for LLM Reasoning
Shuyao Xu, Cheng Peng, Jiangxuan Long, Weidi Xu, Wei Chu, Yuan Qi
•
May 30, 2025
•
9
3
DexUMI: Die menschliche Hand als universelle Manipulationsschnittstelle für geschickte Manipulation
DexUMI: Using Human Hand as the Universal Manipulation Interface for Dexterous Manipulation
Mengda Xu, Han Zhang, Yifan Hou, Zhenjia Xu, Linxi Fan, Manuela Veloso, Shuran Song
•
May 28, 2025
•
9
2
ChARM: Zeichenbasierte, handlungsadaptive Belohnungsmodellierung für fortschrittliche rollenspielbasierte Sprachagenten
ChARM: Character-based Act-adaptive Reward Modeling for Advanced Role-Playing Language Agents
Feiteng Fang, Ting-En Lin, Yuchuan Wu, Xiong Liu, Xiang Huang, Dingwei Chen, Jing Ye, Haonan Zhang, Liang Zhu, Hamid Alinejad-Rokny, Min Yang, Fei Huang, Yongbin Li
•
May 29, 2025
•
7
2
Rollenspielbasierte Evaluation für große Sprachmodelle
Role-Playing Evaluation for Large Language Models
Yassine El Boudouri, Walter Nuninger, Julian Alvarez, Yvan Peter
•
May 19, 2025
•
7
2
Bewertung und Steuerung von Modalitätspräferenzen in multimodalen großen Sprachmodellen
Evaluating and Steering Modality Preferences in Multimodal Large Language Model
Yu Zhang, Jinlong Ma, Yongshuai Hou, Xuefeng Bai, Kehai Chen, Yang Xiang, Jun Yu, Min Zhang
•
May 27, 2025
•
6
2
SiLVR: Ein einfaches sprachbasiertes Framework für die Videoanalyse
SiLVR: A Simple Language-based Video Reasoning Framework
Ce Zhang, Yan-Bo Lin, Ziyang Wang, Mohit Bansal, Gedas Bertasius
•
May 30, 2025
•
5
2
Nutzung großer Sprachmodelle zur Erkennung wissenschaftlicher Neuartigkeit
Harnessing Large Language Models for Scientific Novelty Detection
Yan Liu, Zonglin Yang, Soujanya Poria, Thanh-Son Nguyen, Erik Cambria
•
May 30, 2025
•
5
2
un^2CLIP: Verbesserung der Fähigkeit von CLIP zur Erfassung visueller Details durch Invertierung von unCLIP
un^2CLIP: Improving CLIP's Visual Detail Capturing Ability via Inverting unCLIP
Yinqi Li, Jiahe Zhao, Hong Chang, Ruibing Hou, Shiguang Shan, Xilin Chen
•
May 30, 2025
•
5
2
Einen SLM feinabstimmen oder einen LLM prompten? Der Fall der Generierung von Low-Code-Workflows
Fine-Tune an SLM or Prompt an LLM? The Case of Generating Low-Code Workflows
Orlando Marquez Ayala, Patrice Bechard, Emily Chen, Maggie Baird, Jingfei Chen
•
May 30, 2025
•
5
2
Point-MoE: Auf dem Weg zur domänenübergreifenden Generalisierung in der 3D-Semantiksegmentierung mittels Mixture-of-Experts
Point-MoE: Towards Cross-Domain Generalization in 3D Semantic Segmentation via Mixture-of-Experts
Xuweiyi Chen, Wentao Zhou, Aruni RoyChowdhury, Zezhou Cheng
•
May 29, 2025
•
5
2
Ermöglichung flexibler Multi-LLM-Integration für skalierbare Wissensaggregation
Enabling Flexible Multi-LLM Integration for Scalable Knowledge Aggregation
Zhenglun Kong, Zheng Zhan, Shiyue Hou, Yifan Gong, Xin Meng, Pengwei Sui, Peiyan Dong, Xuan Shen, Zifeng Wang, Pu Zhao, Hao Tang, Stratis Ioannidis, Yanzhi Wang
•
May 28, 2025
•
5
2
Neubetrachtung bi-linearer Zustandsübergänge in rekurrenten neuronalen Netzen
Revisiting Bi-Linear State Transitions in Recurrent Neural Networks
M. Reza Ebrahimi, Roland Memisevic
•
May 27, 2025
•
4
2
TRIDENT: Verbesserung der Sicherheit großer Sprachmodelle durch dreidimensionale, diversifizierte Red-Teaming-Datensynthese
TRIDENT: Enhancing Large Language Model Safety with Tri-Dimensional Diversified Red-Teaming Data Synthesis
Xiaorui Wu, Xiaofeng Mao, Fei Li, Xin Zhang, Xuanhong Li, Chong Teng, Donghong Ji, Zhuang Li
•
May 30, 2025
•
3
2
GATE: Allgemeine arabische Texteinbettung für verbesserte semantische Textähnlichkeit mit Matrjoschka-Repräsentationslernen und Hybridverlusttraining
GATE: General Arabic Text Embedding for Enhanced Semantic Textual Similarity with Matryoshka Representation Learning and Hybrid Loss Training
Omer Nacar, Anis Koubaa, Serry Sibaee, Yasser Al-Habashi, Adel Ammar, Wadii Boulila
•
May 30, 2025
•
3
2
Grammatiken formaler Unsicherheit: Wann man LLMs bei automatisierten Schlussfolgerungsaufgaben vertrauen sollte
Grammars of Formal Uncertainty: When to Trust LLMs in Automated Reasoning Tasks
Debargha Ganguly, Vikash Singh, Sreehari Sankar, Biyao Zhang, Xuecen Zhang, Srinivasan Iyengar, Xiaotian Han, Amit Sharma, Shivkumar Kalyanaraman, Vipin Chaudhary
•
May 26, 2025
•
3
2
Das automatisierte, aber riskante Spiel: Modellierung von Agent-zu-Agent-Verhandlungen und Transaktionen in Konsumentenmärkten
The Automated but Risky Game: Modeling Agent-to-Agent Negotiations and Transactions in Consumer Markets
Shenzhe Zhu, Jiao Sun, Yi Nian, Tobin South, Alex Pentland, Jiaxin Pei
•
May 29, 2025
•
2
3
OMNIGUARD: Ein effizienter Ansatz für die KI-Sicherheitsmoderation über Modalitäten hinweg
OMNIGUARD: An Efficient Approach for AI Safety Moderation Across Modalities
Sahil Verma, Keegan Hines, Jeff Bilmes, Charlotte Siska, Luke Zettlemoyer, Hila Gonen, Chandan Singh
•
May 29, 2025
•
2
2
LegalSearchLM: Umdenken bei der juristischen Fallrecherche als Generierung von Rechtselementen
LegalSearchLM: Rethinking Legal Case Retrieval as Legal Elements Generation
Chaeeun Kim, Jinu Lee, Wonseok Hwang
•
May 28, 2025
•
2
1
Kontext ist Gold, um die Goldpassage zu finden: Bewertung und Training kontextueller Dokumenten-Embeddings
Context is Gold to find the Gold Passage: Evaluating and Training Contextual Document Embeddings
Max Conti, Manuel Faysse, Gautier Viaud, Antoine Bosselut, Céline Hudelot, Pierre Colombo
•
May 30, 2025
•
1
2
Der Stand der Sicherheitsforschung zu mehrsprachigen LLMs: Von der Messung der Sprachlücke zu ihrer Minderung
The State of Multilingual LLM Safety Research: From Measuring the Language Gap to Mitigating It
Zheng-Xin Yong, Beyza Ermis, Marzieh Fadaee, Stephen H. Bach, Julia Kreutzer
•
May 30, 2025
•
1
2