ChatPaper.ai
Menü öffnen
Startseite
Tägliche Publikationen
arXiv
HuggingFace
Preise
Konto
Arbeitsbereich
🇩🇪
Deutsch
Loading...
•
•
•
•
•
•
•
•
•
•
KI-Forschungspapiere Täglich
Täglich kuratierte KI-Forschungspapiere mit Übersetzungen
April 16th, 2025
ReZero: Verbesserung der Suchfähigkeit von LLMs durch den Versuch, es noch einmal zu probieren
ReZero: Enhancing LLM search ability by trying one-more-time
Alan Dao, Thinh Le
•
Apr 15, 2025
•
14
2
VisualPuzzles: Entkopplung der Bewertung multimodaler Argumentation von Domänenwissen
VisualPuzzles: Decoupling Multimodal Reasoning Evaluation from Domain Knowledge
Yueqi Song, Tianyue Ou, Yibo Kong, Zecheng Li, Graham Neubig, Xiang Yue
•
Apr 14, 2025
•
11
2
NormalCrafter: Lernen zeitlich konsistenter Normalen aus Video-Diffusionspriors
NormalCrafter: Learning Temporally Consistent Normals from Video Diffusion Priors
Yanrui Bin, Wenbo Hu, Haoyuan Wang, Xinya Chen, Bing Wang
•
Apr 15, 2025
•
17
2
Effizientes Training von Prozess-Belohnungsmodellen durch aktives Lernen
Efficient Process Reward Model Training via Active Learning
Keyu Duan, Zichen Liu, Xin Mao, Tianyu Pang, Changyu Chen, Qiguang Chen, Michael Qizhe Shieh, Longxu Dou
•
Apr 14, 2025
•
13
2
Heimdall: Test-Zeit-Skalierung bei der generativen Verifizierung
Heimdall: test-time scaling on the generative verification
Wenlei Shi, Xing Jin
•
Apr 14, 2025
•
32
2
Wie Instruktions- und Argumentationsdaten das Post-Training prägen: Datenqualität aus der Perspektive schichtweiser Gradienten
How Instruction and Reasoning Data shape Post-Training: Data Quality through the Lens of Layer-wise Gradients
Ming Li, Yanhong Li, Ziyue Li, Tianyi Zhou
•
Apr 14, 2025
•
40
2
RealHarm: Eine Sammlung realer Anwendungsfehler von Sprachmodellen
RealHarm: A Collection of Real-World Language Model Application Failures
Pierre Le Jeune, Jiaen Liu, Luca Rossi, Matteo Dora
•
Apr 14, 2025
•
11
3
Effiziente hybride Sprachmodellkompression durch gruppenbewusstes SSM-Pruning
Efficient Hybrid Language Model Compression through Group-Aware SSM Pruning
Ali Taghibakhshi, Sharath Turuvekere Sreenivas, Saurav Muralidharan, Marcin Chochowski, Yashaswi Karnati, Raviraj Joshi, Ameya Sunil Mahabaleshwarkar, Zijia Chen, Yoshi Suhara, Oluwatobi Olabiyi, Daniel Korzekwa, Mostofa Patwary, Mohammad Shoeybi, Jan Kautz, Bryan Catanzaro, Ashwath Aithal, Nima Tajbakhsh, Pavlo Molchanov
•
Apr 15, 2025
•
10
2
Effiziente Reasoning-Modelle: Ein Überblick
Efficient Reasoning Models: A Survey
Sicheng Feng, Gongfan Fang, Xinyin Ma, Xinchao Wang
•
Apr 15, 2025
•
18
4
xVerify: Effiziente Antwortverifikation für die Bewertung von Reasoning-Modellen
xVerify: Efficient Answer Verifier for Reasoning Model Evaluations
Ding Chen, Qingchen Yu, Pengyuan Wang, Wentao Zhang, Bo Tang, Feiyu Xiong, Xinchi Li, Minchuan Yang, Zhiyu Li
•
Apr 14, 2025
•
84
2
Adaptive Berechnungsreduzierung für den Vergessens-Transformer
Adaptive Computation Pruning for the Forgetting Transformer
Zhixuan Lin, Johan Obando-Ceron, Xu Owen He, Aaron Courville
•
Apr 9, 2025
•
3
2
AI-University: Eine LLM-basierte Plattform zur didaktischen Ausrichtung auf wissenschaftliche Lehrveranstaltungen
AI-University: An LLM-based platform for instructional alignment to scientific classrooms
Mostafa Faghih Shojaei, Rahul Gulati, Benjamin A. Jasperson, Shangshang Wang, Simone Cimolato, Dangli Cao, Willie Neiswanger, Krishna Garikipati
•
Apr 11, 2025
•
9
2
DeepMath-103K: Ein umfangreicher, anspruchsvoller, bereinigter und verifizierbarer mathematischer Datensatz zur Förderung des logischen Denkens
DeepMath-103K: A Large-Scale, Challenging, Decontaminated, and Verifiable Mathematical Dataset for Advancing Reasoning
Zhiwei He, Tian Liang, Jiahao Xu, Qiuzhi Liu, Xingyu Chen, Yue Wang, Linfeng Song, Dian Yu, Zhenwen Liang, Wenxuan Wang, Zhuosheng Zhang, Rui Wang, Zhaopeng Tu, Haitao Mi, Dong Yu
•
Apr 15, 2025
•
12
6
D^2iT: Dynamischer Diffusions-Transformer für präzise Bildgenerierung
D^2iT: Dynamic Diffusion Transformer for Accurate Image Generation
Weinan Jia, Mengqi Huang, Nan Chen, Lei Zhang, Zhendong Mao
•
Apr 13, 2025
•
12
2
DataDecide: Wie man die besten Vortrainingsdaten mit kleinen Experimenten vorhersagt
DataDecide: How to Predict Best Pretraining Data with Small Experiments
Ian Magnusson, Nguyen Tai, Ben Bogin, David Heineman, Jena D. Hwang, Luca Soldaini, Akshita Bhagia, Jiacheng Liu, Dirk Groeneveld, Oyvind Tafjord, Noah A. Smith, Pang Wei Koh, Jesse Dodge
•
Apr 15, 2025
•
17
2
Die Skalierbarkeit der Einfachheit: Empirische Analyse des Vision-Sprache-Lernens mit einem einzelnen Transformer
The Scalability of Simplicity: Empirical Analysis of Vision-Language Learning with a Single Transformer
Weixian Lei, Jiacong Wang, Haochen Wang, Xiangtai Li, Jun Hao Liew, Jiashi Feng, Zilong Huang
•
Apr 14, 2025
•
15
3
Seedream 3.0 Technischer Bericht
Seedream 3.0 Technical Report
Yu Gao, Lixue Gong, Qiushan Guo, Xiaoxia Hou, Zhichao Lai, Fanshi Li, Liang Li, Xiaochen Lian, Chao Liao, Liyang Liu, Wei Liu, Yichun Shi, Shiqi Sun, Yu Tian, Zhi Tian, Peng Wang, Rui Wang, Xuanda Wang, Xun Wang, Ye Wang, Guofeng Wu, Jie Wu, Xin Xia, Xuefeng Xiao, Zhonghua Zhai, Xinyu Zhang, Qi Zhang, Yuwei Zhang, Shijia Zhao, Jianchao Yang, Weilin Huang
•
Apr 15, 2025
•
52
6
Effizientes Training von generativen Modellen durch Einbettungsrepräsentations-Vorwärmung
Efficient Generative Model Training via Embedded Representation Warmup
Deyuan Liu, Peng Sun, Xufeng Li, Tao Lin
•
Apr 14, 2025
•
12
2
PVUW 2025 Challenge-Bericht: Fortschritte in der pixelgenauen Analyse komplexer Videos in natürlichen Umgebungen
PVUW 2025 Challenge Report: Advances in Pixel-level Understanding of Complex Videos in the Wild
Henghui Ding, Chang Liu, Nikhila Ravi, Shuting He, Yunchao Wei, Song Bai, Philip Torr, Kehuan Song, Xinglin Xie, Kexin Zhang, Licheng Jiao, Lingling Li, Shuyuan Yang, Xuqiang Cao, Linnan Zhao, Jiaxuan Zhao, Fang Liu, Mengjiao Wang, Junpei Zhang, Xu Liu, Yuting Yang, Mengru Ma, Hao Fang, Runmin Cong, Xiankai Lu, Zhiyang Che, Wei Zhan, Tianming Liang, Haichao Jiang, Wei-Shi Zheng, Jian-Fang Hu, Haobo Yuan, Xiangtai Li, Tao Zhang, Lu Qi, Ming-Hsuan Yang
•
Apr 15, 2025
•
6
2
LazyReview: Ein Datensatz zur Aufdeckung von oberflächlichem Denken in NLP-Gutachten
LazyReview A Dataset for Uncovering Lazy Thinking in NLP Peer Reviews
Sukannya Purkayastha, Zhuang Li, Anne Lauscher, Lizhen Qu, Iryna Gurevych
•
Apr 15, 2025
•
4
2
Zustandsraummodelle für die Fernerkundungsänderungserkennung
Change State Space Models for Remote Sensing Change Detection
Elman Ghazaei, Erchan Aptoula
•
Apr 15, 2025
•
1
2
Pixel-SAIL: Ein einzelner Transformer für pixelbasierte Verständnisaufgaben
Pixel-SAIL: Single Transformer For Pixel-Grounded Understanding
Tao Zhang, Xiangtai Li, Zilong Huang, Yanwei Li, Weixian Lei, Xueqing Deng, Shihao Chen, Shunping Ji, Jiashi Feng
•
Apr 14, 2025
•
28
3
Diffusionsdistillation mit direkter Präferenzoptimierung für effiziente 3D-LiDAR-Szenenvervollständigung
Diffusion Distillation With Direct Preference Optimization For Efficient 3D LiDAR Scene Completion
An Zhaol, Shengyuan Zhang, Ling Yang, Zejian Li, Jiale Wu, Haoran Xu, AnYang Wei, Perry Pengyun GU Lingyun Sun
•
Apr 15, 2025
•
5
2
Ein minimalistischer Ansatz für das Reasoning von LLMs: Von der Ablehnungsstichprobe zur Verstärkung
A Minimalist Approach to LLM Reasoning: from Rejection Sampling to Reinforce
Wei Xiong, Jiarui Yao, Yuhui Xu, Bo Pang, Lei Wang, Doyen Sahoo, Junnan Li, Nan Jiang, Tong Zhang, Caiming Xiong, Hanze Dong
•
Apr 15, 2025
•
14
6
Zusammenfassung multimodaler Präsentationen mit Vision-Sprache-Modellen: Untersuchung der Auswirkungen von Modalitäten und Struktur
Summarization of Multimodal Presentations with Vision-Language Models: Study of the Effect of Modalities and Structure
Théo Gigant, Camille Guinaudeau, Frédéric Dufaux
•
Apr 14, 2025
•
3
2
TextArena
TextArena
Leon Guertler, Bobby Cheng, Simon Yu, Bo Liu, Leshem Choshen, Cheston Tan
•
Apr 15, 2025
•
27
3
Die Ausrichtung des generativen Entrauschens an diskriminativen Zielen ermöglicht den Einsatz von Diffusion für die visuelle Wahrnehmung.
Aligning Generative Denoising with Discriminative Objectives Unleashes Diffusion for Visual Perception
Ziqi Pang, Xin Xu, Yu-Xiong Wang
•
Apr 15, 2025
•
2
2
Genius: Ein generalisierbarer und rein unüberwachter Selbsttrainingsrahmen für fortgeschrittenes logisches Denken
Genius: A Generalizable and Purely Unsupervised Self-Training Framework For Advanced Reasoning
Fangzhi Xu, Hang Yan, Chang Ma, Haiteng Zhao, Qiushi Sun, Kanzhi Cheng, Junxian He, Jun Liu, Zhiyong Wu
•
Apr 11, 2025
•
54
2
Multimodale Langzeit-Videomodellierung basierend auf dynamischem zeitlichem Kontext
Multimodal Long Video Modeling Based on Temporal Dynamic Context
Haoran Hao, Jiaming Han, Yiyuan Zhang, Xiangyu Yue
•
Apr 14, 2025
•
4
2
SimpleAR: Erweiterung der Grenzen autoregressiver visueller Generierung durch Pretraining, SFT und RL
SimpleAR: Pushing the Frontier of Autoregressive Visual Generation through Pretraining, SFT, and RL
Junke Wang, Zhi Tian, Xun Wang, Xinyu Zhang, Weilin Huang, Zuxuan Wu, Yu-Gang Jiang
•
Apr 15, 2025
•
12
1