ChatPaper.aiChatPaper.ai
Accueil

arXiv

HuggingFace

TarifsCompteEspace de travail

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

Articles de Recherche en IA Quotidiens

Articles de recherche en IA sélectionnés quotidiennement avec traductions

Web-Shepherd : Faire progresser les PRM pour renforcer les agents web
Web-Shepherd: Advancing PRMs for Reinforcing Web Agents

Hyungjoo Chae, Sunghwan Kim, Junhee Cho, Seungone Kim, Seungjun Moon, Gyeom Hwangbo, Dongha Lim, Minjin Kim, Yeonjun Hwang, Minju Gwak, Dongwook Choi, Minseok Kang, Gwanhoon Im, ByeongUng Cho, Hyojun Kim, Jun Hee Han, Taeyoon Kwon, Minju Kim, Beong-woo Kwak, Dongjin Kang, Jinyoung Yeo•May 21, 2025•864

MMaDA : Modèles de Langage Multimodaux à Grande Diffusion
MMaDA: Multimodal Large Diffusion Language Models

Ling Yang, Ye Tian, Bowen Li, Xinchen Zhang, Ke Shen, Yunhai Tong, Mengdi Wang•May 21, 2025•643

Loi d'échelle pour l'entraînement prenant en compte la quantification
Scaling Law for Quantization-Aware Training

Mengzhao Chen, Chaoyi Zhang, Jing Liu, Yutao Zeng, Zeyue Xue, Zhiheng Liu, Yunshui Li, Jin Ma, Jie Huang, Xun Zhou, Ping Luo•May 20, 2025•592

UniVG-R1 : Ancrage Visuel Universel Guidé par le Raisonnement avec Apprentissage par Renforcement
UniVG-R1: Reasoning Guided Universal Visual Grounding with Reinforcement Learning

Sule Bai, Mingxing Li, Yong Liu, Jing Tang, Haoji Zhang, Lei Sun, Xiangxiang Chu, Yansong Tang•May 20, 2025•465

Diffusion vs. Modèles de Langage Autoregressifs : Une Perspective sur les Embeddings de Texte
Diffusion vs. Autoregressive Language Models: A Text Embedding Perspective

Siyue Zhang, Yilun Zhao, Liyuan Geng, Arman Cohan, Anh Tuan Luu, Chen Zhao•May 21, 2025•442

Formation efficace d'agents pour l'utilisation informatique
Efficient Agent Training for Computer Use

Yanheng He, Jiahe Jin, Pengfei Liu•May 20, 2025•372

Cette fois, c'est différent : une perspective d'observabilité sur les modèles de fondation pour séries temporelles
This Time is Different: An Observability Perspective on Time Series Foundation Models

Ben Cohen, Emaad Khwaja, Youssef Doubli, Salahidine Lemaachi, Chris Lettieri, Charles Masson, Hugo Miccinilli, Elise Ramé, Qiqi Ren, Afshin Rostamizadeh, Jean Ogier du Terrail, Anna-Monica Toon, Kan Wang, Stephan Xie, David Asker, Ameet Talwalkar, Othmane Abou-Amal•May 20, 2025•323

Apprenez à raisonner efficacement grâce à un façonnage de récompense adaptatif basé sur la longueur
Learn to Reason Efficiently with Adaptive Length-based Reward Shaping

Wei Liu, Ruochen Zhou, Yiyun Deng, Yuzhen Huang, Junteng Liu, Yuntian Deng, Yizhe Zhang, Junxian He•May 21, 2025•281

Construction d'une ville en 3D à partir d'une seule image
Constructing a 3D Town from a Single Image

Kaizhi Zheng, Ruijian Zhang, Jing Gu, Jie Yang, Xin Eric Wang•May 21, 2025•193

Quand continuer à réfléchir : Commutation adaptative des modes de pensée pour un raisonnement efficace
When to Continue Thinking: Adaptive Thinking Mode Switching for Efficient Reasoning

Xiaoyun Zhang, Jingqing Ruan, Xing Ma, Yawen Zhu, Haodong Zhao, Hao Li, Jiansong Chen, Ke Zeng, Xunliang Cai•May 21, 2025•192

Vid2World : Conception de modèles de diffusion vidéo pour des modèles de monde interactifs
Vid2World: Crafting Video Diffusion Models to Interactive World Models

Siqiao Huang, Jialong Wu, Qixing Zhou, Shangchen Miao, Mingsheng Long•May 20, 2025•192

lmgame-Bench : Quelle est la performance des LLM dans les jeux ?
lmgame-Bench: How Good are LLMs at Playing Games?

Lanxiang Hu, Mingjia Huo, Yuxuan Zhang, Haoyang Yu, Eric P. Xing, Ion Stoica, Tajana Rosing, Haojian Jin, Hao Zhang•May 21, 2025•183

VerifyBench : Évaluation comparative des systèmes de récompense basés sur des références pour les grands modèles de langage
VerifyBench: Benchmarking Reference-based Reward Systems for Large Language Models

Yuchen Yan, Jin Jiang, Zhenbang Ren, Yijun Li, Xudong Cai, Yang Liu, Xin Xu, Mengdi Zhang, Jian Shao, Yongliang Shen, Jun Xiao, Yueting Zhuang•May 21, 2025•162

Réflexion sur les a priori : Raisonnement fiable des grands modèles de langage sur les graphes de connaissances
Deliberation on Priors: Trustworthy Reasoning of Large Language Models on Knowledge Graphs

Jie Ma, Ning Qu, Zhitao Gao, Rui Xing, Jun Liu, Hongbin Pei, Jiang Xie, Linyun Song, Pinghui Wang, Jing Tao, Zhou Su•May 21, 2025•142

IA-T2I : Génération d'images à partir de texte augmentée par Internet
IA-T2I: Internet-Augmented Text-to-Image Generation

Chuanhao Li, Jianwen Sun, Yukang Feng, Mingliang Zhai, Yifan Chang, Kaipeng Zhang•May 21, 2025•132

Apprendre à raisonner via un mélange de pensées pour le raisonnement logique
Learning to Reason via Mixture-of-Thought for Logical Reasoning

Tong Zheng, Lichang Chen, Simeng Han, R. Thomas McCoy, Heng Huang•May 21, 2025•122

dKV-Cache : Le cache pour les modèles de langage à diffusion
dKV-Cache: The Cache for Diffusion Language Models

Xinyin Ma, Runpeng Yu, Gongfan Fang, Xinchao Wang•May 21, 2025•112

Soyez prudent lors du fine-tuning des LLM open-source : vos données de fine-tuning pourraient être secrètement volées !
Be Careful When Fine-tuning On Open-Source LLMs: Your Fine-tuning Data Could Be Secretly Stolen!

Zhexin Zhang, Yuhao Sun, Junxiao Yang, Shiyao Cui, Hongning Wang, Minlie Huang•May 21, 2025•112

Comment devrions-nous améliorer la sécurité des modèles de raisonnement à grande échelle : une étude empirique
How Should We Enhance the Safety of Large Reasoning Models: An Empirical Study

Zhexin Zhang, Xian Qi Loye, Victor Shea-Jay Huang, Junxiao Yang, Qi Zhu, Shiyao Cui, Fei Mi, Lifeng Shang, Yingkang Wang, Hongning Wang, Minlie Huang•May 21, 2025•112

Pensée souple : Libérer le potentiel de raisonnement des LLM dans l'espace continu des concepts
Soft Thinking: Unlocking the Reasoning Potential of LLMs in Continuous Concept Space

Zhen Zhang, Xuehai He, Weixiang Yan, Ao Shen, Chenyang Zhao, Shuohang Wang, Yelong Shen, Xin Eric Wang•May 21, 2025•102

RLVR-World : Entraînement de modèles du monde avec apprentissage par renforcement
RLVR-World: Training World Models with Reinforcement Learning

Jialong Wu, Shaofeng Yin, Ningya Feng, Mingsheng Long•May 20, 2025•102

BARREL : Raisonnement Axé sur les Frontières pour des Modèles de Langue Fiables et Factuels
BARREL: Boundary-Aware Reasoning for Factual and Reliable LRMs

Junxiao Yang, Jinzhe Tu, Haoran Liu, Xiaoce Wang, Chujie Zheng, Zhexin Zhang, Shiyao Cui, Caishun Chen, Tiantian He, Hongning Wang, Yew-Soon Ong, Minlie Huang•May 18, 2025•102

ConvSearch-R1 : Amélioration de la reformulation de requêtes pour la recherche conversationnelle grâce au raisonnement via l'apprentissage par renforcement
ConvSearch-R1: Enhancing Query Reformulation for Conversational Search with Reasoning via Reinforcement Learning

Changtai Zhu, Siyin Wang, Ruijun Feng, Kai Song, Xipeng Qiu•May 21, 2025•92

Génération de texte au-delà de l'échantillonnage de tokens discrets
Text Generation Beyond Discrete Token Sampling

Yufan Zhuang, Liyuan Liu, Chandan Singh, Jingbo Shang, Jianfeng Gao•May 20, 2025•72

Évaluer les biais sans ensembles de test manuels : Une perspective de représentation conceptuelle pour les LLM
Evaluate Bias without Manual Test Sets: A Concept Representation Perspective for LLMs

Lang Gao, Kaiyang Wan, Wei Liu, Chenxi Wang, Zirui Song, Zixiang Xu, Yanbo Wang, Veselin Stoyanov, Xiuying Chen•May 21, 2025•62

AutoMat : Permettre la reconstruction automatisée de structures cristallines à partir de microscopie via l'utilisation d'outils agentiques
AutoMat: Enabling Automated Crystal Structure Reconstruction from Microscopy via Agentic Tool Use

Yaotian Yang, Yiwen Tang, Yizhe Chen, Xiao Chen, Jiangjie Qiu, Hao Xiong, Haoyu Yin, Zhiyao Luo, Yifei Zhang, Sijia Tao, Wentao Li, Qinghua Zhang, Yuqiang Li, Wanli Ouyang, Bin Zhao, Xiaonan Wang, Fei Wei•May 19, 2025•62

DiCo : Revitalisation des ConvNets pour une modélisation de diffusion évolutive et efficace
DiCo: Revitalizing ConvNets for Scalable and Efficient Diffusion Modeling

Yuang Ai, Qihang Fan, Xuefeng Hu, Zhenheng Yang, Ran He, Huaibo Huang•May 16, 2025•52

Audio Jailbreak : Un Benchmark Ouvert et Complet pour le Contournement des Grands Modèles Audio-Linguistiques
Audio Jailbreak: An Open Comprehensive Benchmark for Jailbreaking Large Audio-Language Models

Zirui Song, Qian Jiang, Mingxuan Cui, Mingzhe Li, Lang Gao, Zeyu Zhang, Zixiang Xu, Yanbo Wang, Chenxi Wang, Guangxian Ouyang, Zhenhao Chen, Xiuying Chen•May 21, 2025•42

VARD : Réglage fin efficace et dense pour les modèles de diffusion avec apprentissage par renforcement basé sur la valeur
VARD: Efficient and Dense Fine-Tuning for Diffusion Models with Value-based RL

Fengyuan Dai, Zifeng Zhuang, Yufei Huang, Siteng Huang, Bangyan Liao, Donglin Wang, Fajie Yuan•May 21, 2025•32

PiFlow : Découverte scientifique guidée par les principes grâce à la collaboration multi-agent
PiFlow: Principle-aware Scientific Discovery with Multi-Agent Collaboration

Yingming Pu, Tao Lin, Hongyu Chen•May 21, 2025•32

RL Tango : Renforcement conjoint du générateur et du vérificateur pour le raisonnement linguistique
RL Tango: Reinforcing Generator and Verifier Together for Language Reasoning

Kaiwen Zha, Zhengqi Gao, Maohao Shen, Zhang-Wei Hong, Duane S. Boning, Dina Katabi•May 21, 2025•32

WebNovelBench : Positionner les romanciers LLM dans la distribution des romans web
WebNovelBench: Placing LLM Novelists on the Web Novel Distribution

Leon Lin, Jun Zheng, Haidong Wang•May 20, 2025•32

Ingénierie des prompts préalable pour le réglage fin par renforcement
Prior Prompt Engineering for Reinforcement Fine-Tuning

Pittawat Taveekitworachai, Potsawee Manakul, Sarana Nutanong, Kunat Pipatanakul•May 20, 2025•32

BLEUBERI : BLEU s'avère être une récompense étonnamment efficace pour le suivi d'instructions
BLEUBERI: BLEU is a surprisingly effective reward for instruction following

Yapei Chang, Yekyung Kim, Michael Krumdick, Amir Zadeh, Chuan Li, Chris Tanner, Mohit Iyyer•May 16, 2025•32

Optimisation sans compromis - Éliminer la redondance de calcul dans les LMM
Streamline Without Sacrifice - Squeeze out Computation Redundancy in LMM

Penghao Wu, Lewei Lu, Ziwei Liu•May 21, 2025•22

Mise à l'échelle et amélioration de la reconnaissance automatique de la parole basée sur des LLM : une approche par mélange parcimonieux de projecteurs
Scaling and Enhancing LLM-based AVSR: A Sparse Mixture of Projectors Approach

Umberto Cappellazzo, Minsu Kim, Stavros Petridis, Daniele Falavigna, Alessio Brutti•May 20, 2025•22

BanditSpec : Décodage spéculatif adaptatif via des algorithmes de bandit
BanditSpec: Adaptive Speculative Decoding via Bandit Algorithms

Yunlong Hou, Fengzhuo Zhang, Cunxiao Du, Xuan Zhang, Jiachun Pan, Tianyu Pang, Chao Du, Vincent Y. F. Tan, Zhuoran Yang•May 21, 2025•12

L'efficacité déraisonnable de la minimisation de l'entropie dans le raisonnement des LLM
The Unreasonable Effectiveness of Entropy Minimization in LLM Reasoning

Shivam Agarwal, Zimin Zhang, Lifan Yuan, Jiawei Han, Hao Peng•May 21, 2025•12

MultiHal : Ensemble de données multilingues pour l'évaluation des hallucinations des LLM ancrées dans des graphes de connaissances
MultiHal: Multilingual Dataset for Knowledge-Graph Grounded Evaluation of LLM Hallucinations

Ernests Lavrinovics, Russa Biswas, Katja Hose, Johannes Bjerva•May 20, 2025•12

HumaniBench : Un Cadre Centré sur l'Humain pour l'Évaluation des Grands Modèles Multimodaux
HumaniBench: A Human-Centric Framework for Large Multimodal Models Evaluation

Shaina Raza, Aravind Narayanan, Vahid Reza Khazaie, Ashmal Vayani, Mukund S. Chettiar, Amandeep Singh, Mubarak Shah, Deval Pandya•May 16, 2025•12

Connaissances spécifiques à la langue : Les modèles sont-ils meilleurs en X qu'en anglais ?
Language Specific Knowledge: Do Models Know Better in X than in English?

Ishika Agarwal, Nimet Beyza Bozdag, Dilek Hakkani-Tür•May 21, 2025•02

L'apprentissage en contexte améliore la reconnaissance vocale grâce à une adaptation humaine aux locuteurs et aux variétés linguistiques
In-Context Learning Boosts Speech Recognition via Human-like Adaptation to Speakers and Language Varieties

Nathan Roll, Calbert Graham, Yuka Tatsumi, Kim Tien Nguyen, Meghan Sumner, Dan Jurafsky•May 20, 2025•02