ChatPaper.aiChatPaper.ai
Startseite

arXiv

HuggingFace

PreiseKontoArbeitsbereich

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

KI-Forschungspapiere Täglich

Täglich kuratierte KI-Forschungspapiere mit Übersetzungen

Absolute Zero: Verstärktes Selbstspiel-Reasoning ohne Daten
Absolute Zero: Reinforced Self-play Reasoning with Zero Data

Andrew Zhao, Yiran Wu, Yang Yue, Tong Wu, Quentin Xu, Yang Yue, Matthieu Lin, Shenzhi Wang, Qingyun Wu, Zilong Zheng, Gao Huang•May 6, 2025•882

Einheitliches multimodales Chain-of-Thought-Belohnungsmodell durch Reinforcement-Fine-Tuning
Unified Multimodal Chain-of-Thought Reward Model through Reinforcement Fine-Tuning

Yibin Wang, Zhimin Li, Yuhang Zang, Chunyu Wang, Qinglin Lu, Cheng Jin, Jiaqi Wang•May 6, 2025•823

RADLADS: Schnelle Aufmerksamkeitsdestillation für lineare Aufmerksamkeitsdecoder im großen Maßstab
RADLADS: Rapid Attention Distillation to Linear Attention Decoders at Scale

Daniel Goldstein, Eric Alcaide, Janna Lu, Eugene Cheah•May 5, 2025•261

FlexiAct: Auf dem Weg zu flexibler Aktionssteuerung in heterogenen Szenarien
FlexiAct: Towards Flexible Action Control in Heterogeneous Scenarios

Shiyi Zhang, Junhao Zhuang, Zhaoyang Zhang, Ying Shan, Yansong Tang•May 6, 2025•251

Eine empirische Studie zur Quantisierung von Qwen3
An Empirical Study of Qwen3 Quantization

Xingyu Zheng, Yuye Li, Haoran Chu, Yue Feng, Xudong Ma, Jie Luo, Jinyang Guo, Haotong Qin, Michele Magno, Xianglong Liu•May 4, 2025•221

RetroInfer: Ein Vektorspeicher-Ansatz für skalierbare Langkontext-LLM-Inferenz
RetroInfer: A Vector-Storage Approach for Scalable Long-Context LLM Inference

Yaoqi Chen, Jinkai Zhang, Baotong Lu, Qianxi Zhang, Chengruidong Zhang, Jingjia Luo, Di Liu, Huiqiang Jiang, Qi Chen, Jing Liu, Bailu Ding, Xiao Yan, Jiawei Jiang, Chen Chen, Mingxing Zhang, Yuqing Yang, Fan Yang, Mao Yang•May 5, 2025•212

Multi-Agenten-System für umfassendes Fußballverständnis
Multi-Agent System for Comprehensive Soccer Understanding

Jiayuan Rao, Zifeng Li, Haoning Wu, Ya Zhang, Yanfeng Wang, Weidi Xie•May 6, 2025•171

Entschlüsselung offener Informationssuchziele aus Augenbewegungen beim Lesen
Decoding Open-Ended Information Seeking Goals from Eye Movements in Reading

Cfir Avraham Hadar, Omer Shubi, Yoav Meiri, Yevgeni Berzak•May 4, 2025•142

HoloTime: Beherrschung von Video-Diffusionsmodellen für die Erzeugung panoramischer 4D-Szenen
HoloTime: Taming Video Diffusion Models for Panoramic 4D Scene Generation

Haiyang Zhou, Wangbo Yu, Jiawen Guan, Xinhua Cheng, Yonghong Tian, Li Yuan•Apr 30, 2025•111

Geospatiale mechanistische Interpretierbarkeit von großen Sprachmodellen
Geospatial Mechanistic Interpretability of Large Language Models

Stef De Sabbata, Stefano Mizzaro, Kevin Roitero•May 6, 2025•91

SWE-smith: Skalierung von Daten für Software-Engineering-Agenten
SWE-smith: Scaling Data for Software Engineering Agents

John Yang, Kilian Leret, Carlos E. Jimenez, Alexander Wettig, Kabir Khandpur, Yanzhe Zhang, Binyuan Hui, Ofir Press, Ludwig Schmidt, Diyi Yang•Apr 30, 2025•81

VITA-Audio: Schnelle verschachtelte cross-modale Token-Generierung für effiziente große Sprach-Sprachmodelle
VITA-Audio: Fast Interleaved Cross-Modal Token Generation for Efficient Large Speech-Language Model

Zuwei Long, Yunhang Shen, Chaoyou Fu, Heting Gao, Lijiang Li, Peixian Chen, Mengdan Zhang, Hang Shao, Jian Li, Jinlong Peng, Haoyu Cao, Ke Li, Rongrong Ji, Xing Sun•May 6, 2025•71

Scenethesis: Ein agentenbasiertes Framework für Sprache und Vision zur Generierung von 3D-Szenen
Scenethesis: A Language and Vision Agentic Framework for 3D Scene Generation

Lu Ling, Chen-Hsuan Lin, Tsung-Yi Lin, Yifan Ding, Yu Zeng, Yichen Sheng, Yunhao Ge, Ming-Yu Liu, Aniket Bera, Zhaoshuo Li•May 5, 2025•61

InfoVids: Neugestaltung des Zuschauererlebnisses durch alternative Visualisierungs-Präsentator-Beziehungen
InfoVids: Reimagining the Viewer Experience with Alternative Visualization-Presenter Relationships

Ji Won Chung, Tongyu Zhou, Ivy Chen, Kevin Hsu, Ryan A. Rossi, Alexa Siu, Shunan Guo, Franck Dernoncourt, James Tompkin, Jeff Huang•May 6, 2025•51

Welcher Agent verursacht Aufgabenfehler und wann? Zur automatisierten Fehlerzuweisung in Multi-Agenten-Systemen mit großen Sprachmodellen
Which Agent Causes Task Failures and When? On Automated Failure Attribution of LLM Multi-Agent Systems

Shaokun Zhang, Ming Yin, Jieyu Zhang, Jiale Liu, Zhiguang Han, Jingyang Zhang, Beibin Li, Chi Wang, Huazheng Wang, Yiran Chen, Qingyun Wu•Apr 30, 2025•31

Lehren von Modellen, Hochrisikodaten zu verstehen (aber nicht zu generieren)
Teaching Models to Understand (but not Generate) High-risk Data

Ryan Wang, Matthew Finlayson, Luca Soldaini, Swabha Swayamdipta, Robin Jia•May 5, 2025•21

Schnittstellen nur bei Bedarf aufrufen: Adaptives Aufrufen für große Sprachmodelle in der Fragebeantwortung
Invoke Interfaces Only When Needed: Adaptive Invocation for Large Language Models in Question Answering

Jihao Zhao, Chunlai Zhou, Biao Qin•May 5, 2025•21

Auto-SLURP: Ein Benchmark-Datensatz zur Bewertung von Multi-Agenten-Frameworks für intelligente persönliche Assistenten
Auto-SLURP: A Benchmark Dataset for Evaluating Multi-Agent Frameworks in Smart Personal Assistant

Lei Shen, Xiaoyu Shen•Apr 25, 2025•21

Alpha-Excel-Benchmark
Alpha Excel Benchmark

David Noever, Forrest McKee•May 7, 2025•01