ChatPaper.aiChatPaper.ai
Accueil

arXiv

HuggingFace

TarifsCompteEspace de travail

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

Articles de Recherche en IA Quotidiens

Articles de recherche en IA sélectionnés quotidiennement avec traductions

Réexamen du débat multi-agent comme mise à l'échelle au moment du test : une étude systématique de l'efficacité conditionnelle
Revisiting Multi-Agent Debate as Test-Time Scaling: A Systematic Study of Conditional Effectiveness

Yongjin Yang, Euiin Yi, Jongwoo Ko, Kimin Lee, Zhijing Jin, Se-Young Yun•May 29, 2025•51

PixelThink : Vers un raisonnement en chaîne de pixels efficace
PixelThink: Towards Efficient Chain-of-Pixel Reasoning

Song Wang, Gongfan Fang, Lingdong Kong, Xiangtai Li, Jianyun Xu, Sheng Yang, Qiang Li, Jianke Zhu, Xinchao Wang•May 29, 2025•11

Tableau-R1 : Mise à l'échelle au moment de l'inférence pour le raisonnement sur les tableaux
Table-R1: Inference-Time Scaling for Table Reasoning

Zheyuan Yang, Lyuhao Chen, Arman Cohan, Yilun Zhao•May 29, 2025•882

Spatial-MLLM : Amélioration des capacités des MLLM dans l'intelligence spatiale basée sur la vision
Spatial-MLLM: Boosting MLLM Capabilities in Visual-based Spatial Intelligence

Diankun Wu, Fangfu Liu, Yi-Hsin Hung, Yueqi Duan•May 29, 2025•663

L'ascension grave la sagesse plus profondément que le sommet : sur les récompenses bruyantes dans l'apprentissage du raisonnement
The Climb Carves Wisdom Deeper Than the Summit: On the Noisy Rewards in Learning to Reason

Ang Lv, Ruobing Xie, Xingwu Sun, Zhanhui Kang, Rui Yan•May 28, 2025•642

VF-Eval : Évaluation des LLM multimodaux pour la génération de retours sur les vidéos AIGC
VF-Eval: Evaluating Multimodal LLMs for Generating Feedback on AIGC Videos

Tingyu Song, Tongyan Hu, Guo Gan, Yilun Zhao•May 29, 2025•562

ZeroGUI : Automatisation de l'apprentissage d'interfaces graphiques en ligne sans aucun coût humain
ZeroGUI: Automating Online GUI Learning at Zero Human Cost

Chenyu Yang, Shiqian Su, Shi Liu, Xuan Dong, Yue Yu, Weijie Su, Xuehui Wang, Zhaoyang Liu, Jinguo Zhu, Hao Li, Wenhai Wang, Yu Qiao, Xizhou Zhu, Jifeng Dai•May 29, 2025•452

VideoReasonBench : Les MLLM peuvent-elles effectuer un raisonnement complexe centré sur la vision dans les vidéos ?
VideoReasonBench: Can MLLMs Perform Vision-Centric Complex Video Reasoning?

Yuanxin Liu, Kun Ouyang, Haoning Wu, Yi Liu, Lin Sui, Xinhao Li, Yan Zhong, Y. Charles, Xinyu Zhou, Xu Sun•May 29, 2025•396

Fast-dLLM : Accélération sans entraînement des LLM de diffusion par activation du cache KV et décodage parallèle
Fast-dLLM: Training-free Acceleration of Diffusion LLM by Enabling KV Cache and Parallel Decoding

Chengyue Wu, Hao Zhang, Shuchen Xue, Zhijian Liu, Shizhe Diao, Ligeng Zhu, Ping Luo, Song Han, Enze Xie•May 28, 2025•392

D-AR : Diffusion via Modèles Autoregressifs
D-AR: Diffusion via Autoregressive Models

Ziteng Gao, Mike Zheng Shou•May 29, 2025•342

AnySplat : Projection en avant de splats gaussiens 3D à partir de vues non contraintes
AnySplat: Feed-forward 3D Gaussian Splatting from Unconstrained Views

Lihan Jiang, Yucheng Mao, Linning Xu, Tao Lu, Kerui Ren, Yichen Jin, Xudong Xu, Mulin Yu, Jiangmiao Pang, Feng Zhao, Dahua Lin, Bo Dai•May 29, 2025•312

cadrille : Reconstruction multi-modale de CAO avec apprentissage par renforcement en ligne
cadrille: Multi-modal CAD Reconstruction with Online Reinforcement Learning

Maksim Kolodiazhnyi, Denis Tarasov, Dmitrii Zhemchuzhnikov, Alexander Nikulin, Ilya Zisman, Anna Vorontsova, Anton Konushin, Vladislav Kurenkov, Danila Rukhovich•May 28, 2025•283

Les modèles de raisonnement sont-ils plus sujets aux hallucinations ?
Are Reasoning Models More Prone to Hallucination?

Zijun Yao, Yantao Liu, Yanxu Chen, Jianhui Chen, Junfeng Fang, Lei Hou, Juanzi Li, Tat-Seng Chua•May 29, 2025•242

LoRAShop : Génération et édition d'images multi-concepts sans entraînement avec des transformateurs à flux rectifié
LoRAShop: Training-Free Multi-Concept Image Generation and Editing with Rectified Flow Transformers

Yusuf Dalva, Hidir Yesiltepe, Pinar Yanardag•May 29, 2025•233

Satori-SWE : Mise à l'échelle évolutive en temps de test pour une ingénierie logicielle économe en échantillons
Satori-SWE: Evolutionary Test-Time Scaling for Sample-Efficient Software Engineering

Guangtao Zeng, Maohao Shen, Delin Chen, Zhenting Qi, Subhro Das, Dan Gutfreund, David Cox, Gregory Wornell, Wei Lu, Zhang-Wei Hong, Chuang Gan•May 29, 2025•232

UniRL : Modèles Multimodaux Unifiés Auto-Améliorés via Apprentissage Supervisé et par Renforcement
UniRL: Self-Improving Unified Multimodal Models via Supervised and Reinforcement Learning

Weijia Mao, Zhenheng Yang, Mike Zheng Shou•May 29, 2025•232

ATLAS : Apprentissage de la mémorisation optimale du contexte au moment du test
ATLAS: Learning to Optimally Memorize the Context at Test Time

Ali Behrouz, Zeman Li, Praneeth Kacham, Majid Daliri, Yuan Deng, Peilin Zhong, Meisam Razaviyayn, Vahab Mirrokni•May 29, 2025•222

Entraîner des autoencodeurs creux efficacement en exploitant la corrélation des caractéristiques
Train Sparse Autoencoders Efficiently by Utilizing Features Correlation

Vadim Kurochkin, Yaroslav Aksenov, Daniil Laptev, Daniil Gavrilov, Nikita Balagansky•May 28, 2025•212

Explicabilité multidomaine des préférences
Multi-Domain Explainability of Preferences

Nitay Calderon, Liat Ein-Dor, Roi Reichart•May 26, 2025•212

SWE-bench est en ligne !
SWE-bench Goes Live!

Linghao Zhang, Shilin He, Chaoyun Zhang, Yu Kang, Bowen Li, Chengxing Xie, Junhao Wang, Maoquan Wang, Yufan Huang, Shengyu Fu, Elsie Nallipogu, Qingwei Lin, Yingnong Dang, Saravan Rajmohan, Dongmei Zhang•May 29, 2025•202

VidText : Vers une évaluation complète pour la compréhension du texte dans les vidéos
VidText: Towards Comprehensive Evaluation for Video Text Understanding

Zhoufaran Yang, Yan Shu, Zhifei Yang, Yan Zhang, Yu Li, Keyang Lu, Gangyan Zeng, Shaohui Liu, Yu Zhou, Nicu Sebe•May 28, 2025•202

FAMA : Le premier modèle de fondation de la parole à grande échelle en open science pour l'anglais et l'italien
FAMA: The First Large-Scale Open-Science Speech Foundation Model for English and Italian

Sara Papi, Marco Gaido, Luisa Bentivogli, Alessio Brutti, Mauro Cettolo, Roberto Gretter, Marco Matassoni, Mohamed Nabih, Matteo Negri•May 28, 2025•202

StressTest : VOTRE modèle de langage vocal peut-il gérer le stress ?
StressTest: Can YOUR Speech LM Handle the Stress?

Iddo Yosha, Gallil Maimon, Yossi Adi•May 28, 2025•172

Vers un raisonnement de sécurité dans les LLM : délibération agentique en IA pour la création de données CoT intégrées aux politiques
Towards Safety Reasoning in LLMs: AI-agentic Deliberation for Policy-embedded CoT Data Creation

Tharindu Kumarage, Ninareh Mehrabi, Anil Ramakrishna, Xinyan Zhao, Richard Zemel, Kai-Wei Chang, Aram Galstyan, Rahul Gupta, Charith Peris•May 27, 2025•172

Le réordonnancement des patchs améliore les modèles de vision
REOrdering Patches Improves Vision Models

Declan Kutscher, David M. Chan, Yutong Bai, Trevor Darrell, Ritwik Gupta•May 29, 2025•162

DeepTheorem : Faire progresser le raisonnement des LLM pour la démonstration de théorèmes grâce au traitement du langage naturel et à l'apprentissage par renforcement
DeepTheorem: Advancing LLM Reasoning for Theorem Proving Through Natural Language and Reinforcement Learning

Ziyin Zhang, Jiahao Xu, Zhiwei He, Tian Liang, Qiuzhi Liu, Yansi Li, Linfeng Song, Zhengwen Liang, Zhuosheng Zhang, Rui Wang, Zhaopeng Tu, Haitao Mi, Dong Yu•May 29, 2025•152

Muddit : Libérer la génération au-delà du texte-à-image avec un modèle de diffusion discrète unifié
Muddit: Liberating Generation Beyond Text-to-Image with a Unified Discrete Diffusion Model

Qingyu Shi, Jinbin Bai, Zhuoran Zhao, Wenhao Chai, Kaidong Yu, Jianzong Wu, Shuangyong Song, Yunhai Tong, Xiangtai Li, Xuelong Li, Shuicheng Yan•May 29, 2025•143

Apprentissage par Renforcement On-Policy avec Base de Récompense Optimale
On-Policy RL with Optimal Reward Baseline

Yaru Hao, Li Dong, Xun Wu, Shaohan Huang, Zewen Chi, Furu Wei•May 29, 2025•142

SafeScientist : Vers des découvertes scientifiques tenant compte des risques par des agents LLM
SafeScientist: Toward Risk-Aware Scientific Discoveries by LLM Agents

Kunlun Zhu, Jiaxun Zhang, Ziheng Qi, Nuoxing Shang, Zijia Liu, Peixuan Han, Yue Su, Haofei Yu, Jiaxuan You•May 29, 2025•122

Raisonnement Système-1.5 : Parcours dans les espaces linguistiques et latents avec des raccourcis dynamiques
System-1.5 Reasoning: Traversal in Language and Latent Spaces with Dynamic Shortcuts

Xiaoqiang Wang, Suyuchen Wang, Yun Zhu, Bang Liu•May 25, 2025•122

GeoDrive : Modèle du monde de conduite informé par la géométrie 3D avec contrôle d'action précis
GeoDrive: 3D Geometry-Informed Driving World Model with Precise Action Control

Anthony Chen, Wenzhao Zheng, Yida Wang, Xueyang Zhang, Kun Zhan, Peng Jia, Kurt Keutzer, Shanghang Zhang•May 28, 2025•113

PatientSim : Un simulateur piloté par des personas pour des interactions réalistes entre médecin et patient
PatientSim: A Persona-Driven Simulator for Realistic Doctor-Patient Interactions

Daeun Kyung, Hyunseung Chung, Seongsu Bae, Jiho Kim, Jae Ho Sohn, Taerim Kim, Soo Kyung Kim, Edward Choi•May 23, 2025•112

Recherche de Solveurs Différentiables pour un Échantillonnage Rapide de Diffusion
Differentiable Solver Search for Fast Diffusion Sampling

Shuai Wang, Zexian Li, Qipeng zhang, Tianhui Song, Xubin Li, Tiezheng Ge, Bo Zheng, Limin Wang•May 27, 2025•102

Décomposer les benchmarks des modèles de langage vidéo : connaissance, perception spatiale ou véritable compréhension temporelle ?
Breaking Down Video LLM Benchmarks: Knowledge, Spatial Perception, or True Temporal Understanding?

Bo Feng, Zhengfeng Lai, Shiyu Li, Zizhen Wang, Simon Wang, Ping Huang, Meng Cao•May 20, 2025•102

MAGREF : Guidage masqué pour la génération de vidéos à référence quelconque
MAGREF: Masked Guidance for Any-Reference Video Generation

Yufan Deng, Xun Guo, Yuanyang Yin, Jacob Zhiyuan Fang, Yiding Yang, Yizhi Wang, Shenghai Yuan, Angtian Wang, Bo Liu, Haibin Huang, Chongyang Ma•May 29, 2025•92

KVzip : Compression de cache KV indépendante des requêtes avec reconstruction de contexte
KVzip: Query-Agnostic KV Cache Compression with Context Reconstruction

Jang-Hyun Kim, Jinuk Kim, Sangwoo Kwon, Jae W. Lee, Sangdoo Yun, Hyun Oh Song•May 29, 2025•92

ToMAP : Entraînement de persuaders LLM conscients de l'adversaire avec la théorie de l'esprit
ToMAP: Training Opponent-Aware LLM Persuaders with Theory of Mind

Peixuan Han, Zijia Liu, Jiaxuan You•May 29, 2025•82

Uni-Instruct : Modèle de diffusion en une étape via une instruction unifiée de divergence de diffusion
Uni-Instruct: One-step Diffusion Model through Unified Diffusion Divergence Instruction

Yifei Wang, Weimin Bai, Colin Zhang, Debing Zhang, Weijian Luo, He Sun•May 27, 2025•82

ZeroSep : Séparer n'importe quoi dans l'audio sans entraînement préalable
ZeroSep: Separate Anything in Audio with Zero Training

Chao Huang, Yuesheng Ma, Junxuan Huang, Susan Liang, Yunlong Tang, Jing Bi, Wenqiang Liu, Nima Mesgarani, Chenliang Xu•May 29, 2025•72

Afterburner : L'apprentissage par renforcement facilite l'optimisation auto-améliorante de l'efficacité du code
Afterburner: Reinforcement Learning Facilitates Self-Improving Code Efficiency Optimization

Mingzhe Du, Luu Tuan Tuan, Yue Liu, Yuhao Qing, Dong Huang, Xinyi He, Qian Liu, Zejun Ma, See-kiong Ng•May 29, 2025•72

ATI : Instruction de Trajectoire Arbitraire pour la Génération Contrôlée de Vidéos
ATI: Any Trajectory Instruction for Controllable Video Generation

Angtian Wang, Haibin Huang, Jacob Zhiyuan Fang, Yiding Yang, Chongyang Ma•May 28, 2025•72

Re-ttention : Génération visuelle ultra parcimonieuse via remodelage statistique de l'attention
Re-ttention: Ultra Sparse Visual Generation via Attention Statistical Reshape

Ruichen Chen, Keith G. Mills, Liyao Jiang, Chao Gao, Di Niu•May 28, 2025•72

Minimisation de l'entropie en une seule étape
One-shot Entropy Minimization

Zitian Gao, Lynx Chen, Joey Zhou, Bryan Dai•May 26, 2025•72

Quand les modèles raisonnent dans votre langue : contrôler le langage des traces de pensée se fait au détriment de la précision
When Models Reason in Your Language: Controlling Thinking Trace Language Comes at the Cost of Accuracy

Jirui Qi, Shan Chen, Zidi Xiong, Raquel Fernández, Danielle S. Bitterman, Arianna Bisazza•May 28, 2025•62

CXReasonBench : Un benchmark pour évaluer le raisonnement diagnostique structuré dans les radiographies thoraciques
CXReasonBench: A Benchmark for Evaluating Structured Diagnostic Reasoning in Chest X-rays

Hyungyung Lee, Geon Choi, Jung-Oh Lee, Hangyul Yoon, Hyuk Gi Hong, Edward Choi•May 23, 2025•62

Perplexes par les énigmes : Quand les modèles vision-langage ne saisissent pas l'indice
Puzzled by Puzzles: When Vision-Language Models Can't Take a Hint

Heekyung Lee, Jiaxin Ge, Tsung-Han Wu, Minwoo Kang, Trevor Darrell, David M. Chan•May 29, 2025•52

Faire confiance ou non aux prédictions de votre modèle vision-langage
To Trust Or Not To Trust Your Vision-Language Model's Prediction

Hao Dong, Moru Liu, Jian Liang, Eleni Chatzi, Olga Fink•May 29, 2025•52

UniTEX : Texturage génératif haute fidélité universel pour les formes 3D
UniTEX: Universal High Fidelity Generative Texturing for 3D Shapes

Yixun Liang, Kunming Luo, Xiao Chen, Rui Chen, Hongyu Yan, Weiyu Li, Jiarui Liu, Ping Tan•May 29, 2025•52

CLIPGaussian : Transfert de style universel et multimodal basé sur le placage gaussien
CLIPGaussian: Universal and Multimodal Style Transfer Based on Gaussian Splatting

Kornel Howil, Joanna Waczyńska, Piotr Borycki, Tadeusz Dziarmaga, Marcin Mazur, Przemysław Spurek•May 28, 2025•52

Raisonnement Concis, Gains Importants : Élagage des Traces de Raisonnement Longues avec un Prompting Conscient de la Difficulté
Concise Reasoning, Big Gains: Pruning Long Reasoning Trace with Difficulty-Aware Prompting

Yifan Wu, Jingze Shi, Bingheng Wu, Jiayi Zhang, Xiaotian Lin, Nan Tang, Yuyu Luo•May 26, 2025•52

Comment les animaux dansent (quand vous ne regardez pas)
How Animals Dance (When You're Not Looking)

Xiaojuan Wang, Aleksander Holynski, Brian Curless, Ira Kemelmacher, Steve Seitz•May 29, 2025•42

ZPressor : Compression consciente des goulots d'étranglement pour une mise à l'échelle efficace des réseaux de neurones 3DGS en propagation avant
ZPressor: Bottleneck-Aware Compression for Scalable Feed-Forward 3DGS

Weijie Wang, Donny Y. Chen, Zeyu Zhang, Duochao Shi, Akide Liu, Bohan Zhuang•May 29, 2025•45

Les modèles de langage de grande taille peuvent-ils tromper CLIP ? Évaluation de la compositionnalité antagoniste des représentations multimodales pré-entraînées via des mises à jour textuelles
Can LLMs Deceive CLIP? Benchmarking Adversarial Compositionality of Pre-trained Multimodal Representation via Text Updates

Jaewoo Ahn, Heeseung Yun, Dayoon Ko, Gunhee Kim•May 28, 2025•44

SridBench : Benchmark d'Illustration de Recherche Scientifique pour les Modèles de Génération d'Images
SridBench: Benchmark of Scientific Research Illustration Drawing of Image Generation Model

Yifan Chang, Yukang Feng, Jianwen Sun, Jiaxin Ai, Chuanhao Li, S. Kevin Zhou, Kaipeng Zhang•May 28, 2025•42

Lunguage : Un benchmark pour l'interprétation structurée et séquentielle des radiographies thoraciques
Lunguage: A Benchmark for Structured and Sequential Chest X-ray Interpretation

Jong Hak Moon, Geon Choi, Paloma Rabaey, Min Gwan Kim, Hyuk Gi Hong, Jung-Oh Lee, Hangyul Yoon, Eun Woo Doe, Jiyoun Kim, Harshita Sharma, Daniel C. Castro, Javier Alvarez-Valle, Edward Choi•May 27, 2025•42

ChartLens : Attribution visuelle fine dans les graphiques
ChartLens: Fine-grained Visual Attribution in Charts

Manan Suri, Puneet Mathur, Nedim Lipka, Franck Dernoncourt, Ryan A. Rossi, Dinesh Manocha•May 25, 2025•42

Une perspective graphique pour sonder les motifs structurels de la connaissance dans les grands modèles de langage
A Graph Perspective to Probe Structural Patterns of Knowledge in Large Language Models

Utkarsh Sahu, Zhisheng Qi, Yongjia Lei, Ryan A. Rossi, Franck Dernoncourt, Nesreen K. Ahmed, Mahantesh M Halappanavar, Yao Ma, Yu Wang•May 25, 2025•42

MMSI-Bench : Un Benchmark pour l'Intelligence Spatiale Multi-Image
MMSI-Bench: A Benchmark for Multi-Image Spatial Intelligence

Sihan Yang, Runsen Xu, Yiman Xie, Sizhe Yang, Mo Li, Jingli Lin, Chenming Zhu, Xiaochen Chen, Haodong Duan, Xiangyu Yue, Dahua Lin, Tai Wang, Jiangmiao Pang•May 29, 2025•32

Information Différentielle : Une Perspective Informationnelle sur l'Optimisation des Préférences
Differential Information: An Information-Theoretic Perspective on Preference Optimization

Yunjae Won, Hyunji Lee, Hyeonbin Hwang, Minjoon Seo•May 29, 2025•32

Apprentissage par Renforcement Fondé pour le Raisonnement Visuel
Grounded Reinforcement Learning for Visual Reasoning

Gabriel Sarch, Snigdha Saha, Naitik Khandelwal, Ayush Jain, Michael J. Tarr, Aviral Kumar, Katerina Fragkiadaki•May 29, 2025•32

GSO : Des tâches complexes d'optimisation logicielle pour évaluer les agents SWE
GSO: Challenging Software Optimization Tasks for Evaluating SWE-Agents

Manish Shetty, Naman Jain, Jinjian Liu, Vijay Kethanaboyina, Koushik Sen, Ion Stoica•May 29, 2025•32

Évaluation de la créativité textuelle à travers divers domaines : un jeu de données et un évaluateur basé sur un modèle de langage de grande taille
Evaluating Text Creativity across Diverse Domains: A Dataset and Large Language Model Evaluator

Qian Cao, Xiting Wang, Yuzhuo Yuan, Yahui Liu, Fang Luo, Ruihua Song•May 25, 2025•32

TokBench : Évaluer votre tokeniseur visuel avant la génération visuelle
TokBench: Evaluating Your Visual Tokenizer before Visual Generation

Junfeng Wu, Dongliang Luo, Weizhi Zhao, Zhihao Xie, Yuanhao Wang, Junyi Li, Xudong Xie, Yuliang Liu, Xiang Bai•May 23, 2025•32

Estimation de qualité non supervisée au niveau des mots pour la traduction automatique À travers le prisme des (dés)accords des annotateurs
Unsupervised Word-level Quality Estimation for Machine Translation Through the Lens of Annotators (Dis)agreement

Gabriele Sarti, Vilém Zouhar, Malvina Nissim, Arianna Bisazza•May 29, 2025•22

Arrondi adaptatif préservant le modèle
Model-Preserving Adaptive Rounding

Albert Tseng, Zhaofeng Sun, Christopher De Sa•May 29, 2025•22

Guidance Adaptative sans Classifieur via Masquage Dynamique des Faibles Confiances
Adaptive Classifier-Free Guidance via Dynamic Low-Confidence Masking

Pengxiang Li, Shilin Yan, Joey Tsai, Renrui Zhang, Ruichuan An, Ziyu Guo, Xiaowei Gao•May 26, 2025•22

Les grands modèles de langage rencontrent les graphes de connaissances pour le question-réponse : Synthèse et perspectives
Large Language Models Meet Knowledge Graphs for Question Answering: Synthesis and Opportunities

Chuangtao Ma, Yongrui Chen, Tianxing Wu, Arijit Khan, Haofen Wang•May 26, 2025•22

Vers une génération fiable d'hypothèses biomédicales : Évaluation de la véracité et des hallucinations dans les grands modèles de langage
Toward Reliable Biomedical Hypothesis Generation: Evaluating Truthfulness and Hallucination in Large Language Models

Guangzhi Xiong, Eric Xie, Corey Williams, Myles Kim, Amir Hassan Shariatmadari, Sikun Guo, Stefan Bekiranov, Aidong Zhang•May 20, 2025•12