ChatPaper.aiChatPaper.ai
Accueil

arXiv

HuggingFace

TarifsCompteEspace de travail

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

Articles de Recherche en IA Quotidiens

Articles de recherche en IA sélectionnés quotidiennement avec traductions

Absolute Zero : Raisonnement par auto-apprentissage renforcé sans données initiales
Absolute Zero: Reinforced Self-play Reasoning with Zero Data

Andrew Zhao, Yiran Wu, Yang Yue, Tong Wu, Quentin Xu, Yang Yue, Matthieu Lin, Shenzhi Wang, Qingyun Wu, Zilong Zheng, Gao Huang•May 6, 2025•892

Modèle de Récompense Unifié à Chaîne de Pensée Multimodale par Réglage Fin par Renforcement
Unified Multimodal Chain-of-Thought Reward Model through Reinforcement Fine-Tuning

Yibin Wang, Zhimin Li, Yuhang Zang, Chunyu Wang, Qinglin Lu, Cheng Jin, Jiaqi Wang•May 6, 2025•823

RADLADS : Distillation Rapide de l'Attention vers des Décodeurs à Attention Linéaire à Grande Échelle
RADLADS: Rapid Attention Distillation to Linear Attention Decoders at Scale

Daniel Goldstein, Eric Alcaide, Janna Lu, Eugene Cheah•May 5, 2025•261

FlexiAct : Vers un contrôle flexible des actions dans des scénarios hétérogènes
FlexiAct: Towards Flexible Action Control in Heterogeneous Scenarios

Shiyi Zhang, Junhao Zhuang, Zhaoyang Zhang, Ying Shan, Yansong Tang•May 6, 2025•251

Une étude empirique de la quantification de Qwen3
An Empirical Study of Qwen3 Quantization

Xingyu Zheng, Yuye Li, Haoran Chu, Yue Feng, Xudong Ma, Jie Luo, Jinyang Guo, Haotong Qin, Michele Magno, Xianglong Liu•May 4, 2025•221

RetroInfer : Une Approche de Stockage Vectoriel pour l'Inférence Évolutive des LLM à Contexte Long
RetroInfer: A Vector-Storage Approach for Scalable Long-Context LLM Inference

Yaoqi Chen, Jinkai Zhang, Baotong Lu, Qianxi Zhang, Chengruidong Zhang, Jingjia Luo, Di Liu, Huiqiang Jiang, Qi Chen, Jing Liu, Bailu Ding, Xiao Yan, Jiawei Jiang, Chen Chen, Mingxing Zhang, Yuqing Yang, Fan Yang, Mao Yang•May 5, 2025•212

Système Multi-Agent pour une Compréhension Globale du Football
Multi-Agent System for Comprehensive Soccer Understanding

Jiayuan Rao, Zifeng Li, Haoning Wu, Ya Zhang, Yanfeng Wang, Weidi Xie•May 6, 2025•171

Décodage des objectifs de recherche d'information ouverte à partir des mouvements oculaires lors de la lecture
Decoding Open-Ended Information Seeking Goals from Eye Movements in Reading

Cfir Avraham Hadar, Omer Shubi, Yoav Meiri, Yevgeni Berzak•May 4, 2025•142

HoloTime : Maîtriser les modèles de diffusion vidéo pour la génération de scènes panoramiques 4D
HoloTime: Taming Video Diffusion Models for Panoramic 4D Scene Generation

Haiyang Zhou, Wangbo Yu, Jiawen Guan, Xinhua Cheng, Yonghong Tian, Li Yuan•Apr 30, 2025•111

Interprétabilité mécaniste géospatiale des grands modèles de langage
Geospatial Mechanistic Interpretability of Large Language Models

Stef De Sabbata, Stefano Mizzaro, Kevin Roitero•May 6, 2025•91

SWE-smith : Mise à l'échelle des données pour les agents d'ingénierie logicielle
SWE-smith: Scaling Data for Software Engineering Agents

John Yang, Kilian Leret, Carlos E. Jimenez, Alexander Wettig, Kabir Khandpur, Yanzhe Zhang, Binyuan Hui, Ofir Press, Ludwig Schmidt, Diyi Yang•Apr 30, 2025•81

VITA-Audio : Génération rapide de jetons intercalés intermodaux pour des modèles de langage et de parole de grande taille efficaces
VITA-Audio: Fast Interleaved Cross-Modal Token Generation for Efficient Large Speech-Language Model

Zuwei Long, Yunhang Shen, Chaoyou Fu, Heting Gao, Lijiang Li, Peixian Chen, Mengdan Zhang, Hang Shao, Jian Li, Jinlong Peng, Haoyu Cao, Ke Li, Rongrong Ji, Xing Sun•May 6, 2025•71

Scenethesis : Un cadre agentique de langage et de vision pour la génération de scènes 3D
Scenethesis: A Language and Vision Agentic Framework for 3D Scene Generation

Lu Ling, Chen-Hsuan Lin, Tsung-Yi Lin, Yifan Ding, Yu Zeng, Yichen Sheng, Yunhao Ge, Ming-Yu Liu, Aniket Bera, Zhaoshuo Li•May 5, 2025•61

InfoVids : Réinventer l'expérience du spectateur avec des relations alternatives entre visualisation et présentateur
InfoVids: Reimagining the Viewer Experience with Alternative Visualization-Presenter Relationships

Ji Won Chung, Tongyu Zhou, Ivy Chen, Kevin Hsu, Ryan A. Rossi, Alexa Siu, Shunan Guo, Franck Dernoncourt, James Tompkin, Jeff Huang•May 6, 2025•51

Quel agent provoque les échecs de tâches et quand ? Sur l'attribution automatisée des échecs dans les systèmes multi-agents basés sur des modèles de langage
Which Agent Causes Task Failures and When? On Automated Failure Attribution of LLM Multi-Agent Systems

Shaokun Zhang, Ming Yin, Jieyu Zhang, Jiale Liu, Zhiguang Han, Jingyang Zhang, Beibin Li, Chi Wang, Huazheng Wang, Yiran Chen, Qingyun Wu•Apr 30, 2025•31

Apprendre aux modèles à comprendre (mais pas à générer) des données à haut risque
Teaching Models to Understand (but not Generate) High-risk Data

Ryan Wang, Matthew Finlayson, Luca Soldaini, Swabha Swayamdipta, Robin Jia•May 5, 2025•21

Invoquer les interfaces uniquement lorsque nécessaire : invocation adaptative pour les modèles de langage de grande taille dans les systèmes de réponse aux questions
Invoke Interfaces Only When Needed: Adaptive Invocation for Large Language Models in Question Answering

Jihao Zhao, Chunlai Zhou, Biao Qin•May 5, 2025•21

Auto-SLURP : Un ensemble de données de référence pour l'évaluation des cadres multi-agents dans les assistants personnels intelligents
Auto-SLURP: A Benchmark Dataset for Evaluating Multi-Agent Frameworks in Smart Personal Assistant

Lei Shen, Xiaoyu Shen•Apr 25, 2025•21

Benchmark Alpha Excel
Alpha Excel Benchmark

David Noever, Forrest McKee•May 7, 2025•01