ChatPaper.ai
Ouvrir le menu
Accueil
Articles du Jour
arXiv
HuggingFace
Tarifs
Compte
Espace de travail
🇫🇷
Français
Loading...
•
•
•
•
•
•
•
•
•
•
Articles de Recherche en IA Quotidiens
Articles de recherche en IA sélectionnés quotidiennement avec traductions
May 23rd, 2025
NovelSeek : Quand l'agent devient le scientifique - Construction d'un système en boucle fermée de l'hypothèse à la vérification
NovelSeek: When Agent Becomes the Scientist -- Building Closed-Loop System from Hypothesis to Verification
NovelSeek Team, Bo Zhang, Shiyang Feng, Xiangchao Yan, Jiakang Yuan, Zhiyin Yu, Xiaohan He, Songtao Huang, Shaowei Hou, Zheng Nie, Zhilong Wang, Jinyao Liu, Runmin Ma, Tianshuo Peng, Peng Ye, Dongzhan Zhou, Shufei Zhang, Xiaosong Wang, Yilan Zhang, Meng Li, Zhongying Tu, Xiangyu Yue, Wangli Ouyang, Bowen Zhou, Lei Bai
•
May 22, 2025
•
86
1
Mise à l'échelle du raisonnement, perte de contrôle : Évaluation du suivi des instructions dans les modèles de raisonnement à grande échelle
Scaling Reasoning, Losing Control: Evaluating Instruction Following in Large Reasoning Models
Tingchen Fu, Jiawei Gu, Yafu Li, Xiaoye Qu, Yu Cheng
•
May 20, 2025
•
49
2
Tool-Star : Renforcement des capacités de raisonnement multi-outils des LLM via l'apprentissage par renforcement
Tool-Star: Empowering LLM-Brained Multi-Tool Reasoner via Reinforcement Learning
Guanting Dong, Yifei Chen, Xiaoxi Li, Jiajie Jin, Hongjin Qian, Yutao Zhu, Hangyu Mao, Guorui Zhou, Zhicheng Dou, Ji-Rong Wen
•
May 22, 2025
•
43
2
Pixel Reasoner : Encourager le raisonnement dans l'espace des pixels grâce à l'apprentissage par renforcement piloté par la curiosité
Pixel Reasoner: Incentivizing Pixel-Space Reasoning with Curiosity-Driven Reinforcement Learning
Alex Su, Haozhe Wang, Weimin Ren, Fangzhen Lin, Wenhu Chen
•
May 21, 2025
•
37
2
KRIS-Bench : Évaluation des modèles de nouvelle génération pour l'édition intelligente d'images
KRIS-Bench: Benchmarking Next-Level Intelligent Image Editing Models
Yongliang Wu, Zonghui Li, Xinting Hu, Xinyu Ye, Xianfang Zeng, Gang Yu, Wenbo Zhu, Bernt Schiele, Ming-Hsuan Yang, Xu Yang
•
May 22, 2025
•
36
2
QuickVideo : Compréhension en temps réel de vidéos longues grâce à la co-conception système-algorithme
QuickVideo: Real-Time Long Video Understanding with System Algorithm Co-Design
Benjamin Schneider, Dongfu Jiang, Chao Du, Tianyu Pang, Wenhu Chen
•
May 22, 2025
•
30
2
GoT-R1 : Libérer les capacités de raisonnement des MLLM pour la génération visuelle grâce à l'apprentissage par renforcement
GoT-R1: Unleashing Reasoning Capability of MLLM for Visual Generation with Reinforcement Learning
Chengqi Duan, Rongyao Fang, Yuqing Wang, Kun Wang, Linjiang Huang, Xingyu Zeng, Hongsheng Li, Xihui Liu
•
May 22, 2025
•
23
2
LLaDA-V : Modèles de diffusion de langage à grande échelle avec réglage visuel par instructions
LLaDA-V: Large Language Diffusion Models with Visual Instruction Tuning
Zebin You, Shen Nie, Xiaolu Zhang, Jun Hu, Jun Zhou, Zhiwu Lu, Ji-Rong Wen, Chongxuan Li
•
May 22, 2025
•
22
3
Mise à l'échelle efficace des Transformers de Diffusion via μP
Scaling Diffusion Transformers Efficiently via μP
Chenyu Zheng, Xinyu Zhang, Rongzhen Wang, Wei Huang, Zhi Tian, Weilin Huang, Jun Zhu, Chongxuan Li
•
May 21, 2025
•
21
2
Apprentissage par Renforcement Averse au Risque avec la Perte d'Itakura-Saito
Risk-Averse Reinforcement Learning with Itakura-Saito Loss
Igor Udovichenko, Olivier Croissant, Anita Toleutaeva, Evgeny Burnaev, Alexander Korotin
•
May 22, 2025
•
20
2
Comprendre les capacités de l'IA générative dans les tâches quotidiennes de retouche d'images
Understanding Generative AI Capabilities in Everyday Image Editing Tasks
Mohammad Reza Taesiri, Brandon Collins, Logan Bolton, Viet Dac Lai, Franck Dernoncourt, Trung Bui, Anh Totti Nguyen
•
May 22, 2025
•
20
2
AceReason-Nemotron : Progrès dans le raisonnement mathématique et informatique grâce à l'apprentissage par renforcement
AceReason-Nemotron: Advancing Math and Code Reasoning through Reinforcement Learning
Yang Chen, Zhuolin Yang, Zihan Liu, Chankyu Lee, Peng Xu, Mohammad Shoeybi, Bryan Catanzaro, Wei Ping
•
May 22, 2025
•
18
2
Attention à l'écart : Combler le saut de pensée pour améliorer le réglage des chaînes de raisonnement
Mind the Gap: Bridging Thought Leap for Improved Chain-of-Thought Tuning
Haolei Xu, Yuchen Yan, Yongliang Shen, Wenqi Zhang, Guiyang Hou, Shengpei Jiang, Kaitao Song, Weiming Lu, Jun Xiao, Yueting Zhuang
•
May 20, 2025
•
18
1
Permettons aux LLM de se libérer de la surréflexion grâce à l'ajustement par auto-freinage
Let LLMs Break Free from Overthinking via Self-Braking Tuning
Haoran Zhao, Yuchen Yan, Yongliang Shen, Haolei Xu, Wenqi Zhang, Kaitao Song, Jian Shao, Weiming Lu, Jun Xiao, Yueting Zhuang
•
May 20, 2025
•
18
2
VideoGameQA-Bench : Évaluation des modèles vision-langage pour l'assurance qualité des jeux vidéo
VideoGameQA-Bench: Evaluating Vision-Language Models for Video Game Quality Assurance
Mohammad Reza Taesiri, Abhijay Ghildyal, Saman Zadtootaghaj, Nabajeet Barman, Cor-Paul Bezemer
•
May 21, 2025
•
17
2
Dimple : Modèle de Langage Multimodal à Grande Échelle avec Diffusion Discrète et Décodage Parallèle
Dimple: Discrete Diffusion Multimodal Large Language Model with Parallel Decoding
Runpeng Yu, Xinyin Ma, Xinchao Wang
•
May 22, 2025
•
14
2
Nettoyage des portes dérobées sans guidance externe dans le fine-tuning des MLLM
Backdoor Cleaning without External Guidance in MLLM Fine-tuning
Xuankun Rong, Wenke Huang, Jian Liang, Jinhe Bi, Xun Xiao, Yiming Li, Bo Du, Mang Ye
•
May 22, 2025
•
14
2
SophiaVL-R1 : Renforcement du raisonnement des MLLM grâce à une récompense de réflexion
SophiaVL-R1: Reinforcing MLLMs Reasoning with Thinking Reward
Kaixuan Fan, Kaituo Feng, Haoming Lyu, Dongzhan Zhou, Xiangyu Yue
•
May 22, 2025
•
12
2
Corriger les données qui nuisent aux performances : Utilisation en cascade de LLM pour re-étiqueter les négatifs difficiles afin d'améliorer la robustesse de la recherche d'information
Fixing Data That Hurts Performance: Cascading LLMs to Relabel Hard Negatives for Robust Information Retrieval
Nandan Thakur, Crystina Zhang, Xueguang Ma, Jimmy Lin
•
May 22, 2025
•
12
3
Génération efficace de vidéos sans entraînement via la sculpture dynamique de tokens
Training-Free Efficient Video Generation via Dynamic Token Carving
Yuechen Zhang, Jinbo Xing, Bin Xia, Shaoteng Liu, Bohao Peng, Xin Tao, Pengfei Wan, Eric Lo, Jiaya Jia
•
May 22, 2025
•
12
2
SpatialScore : Vers une évaluation unifiée pour la compréhension spatiale multimodale
SpatialScore: Towards Unified Evaluation for Multimodal Spatial Understanding
Haoning Wu, Xiao Huang, Yaohui Chen, Ya Zhang, Yanfeng Wang, Weidi Xie
•
May 22, 2025
•
10
2
LaViDa : Un grand modèle de langage à diffusion pour la compréhension multimodale
LaViDa: A Large Diffusion Language Model for Multimodal Understanding
Shufan Li, Konstantinos Kallidromitis, Hritik Bansal, Akash Gokul, Yusuke Kato, Kazuki Kozuka, Jason Kuen, Zhe Lin, Kai-Wei Chang, Aditya Grover
•
May 22, 2025
•
10
2
TinyV : Réduire les faux négatifs dans la vérification améliore l'apprentissage par renforcement pour le raisonnement des grands modèles de langage
TinyV: Reducing False Negatives in Verification Improves RL for LLM Reasoning
Zhangchen Xu, Yuetai Li, Fengqing Jiang, Bhaskar Ramasubramanian, Luyao Niu, Bill Yuchen Lin, Radha Poovendran
•
May 20, 2025
•
10
2
Penser ou non ? Raisonnement sélectif via apprentissage par renforcement pour les modèles vision-langage
Think or Not? Selective Reasoning via Reinforcement Learning for Vision-Language Models
Jiaqi Wang, Kevin Qinghong Lin, James Cheng, Mike Zheng Shou
•
May 22, 2025
•
7
2
WebAgent-R1 : Entraînement d'agents web via un apprentissage par renforcement multi-tours de bout en bout
WebAgent-R1: Training Web Agents via End-to-End Multi-Turn Reinforcement Learning
Zhepei Wei, Wenlin Yao, Yao Liu, Weizhi Zhang, Qin Lu, Liang Qiu, Changlong Yu, Puyang Xu, Chao Zhang, Bing Yin, Hyokun Yun, Lihong Li
•
May 22, 2025
•
7
2
Raisonnement et réflexion sans entraînement dans les MLLMs
Training-Free Reasoning and Reflection in MLLMs
Hongchen Wei, Zhenzhong Chen
•
May 22, 2025
•
7
3
GRIT : Apprendre aux MLLM à raisonner avec des images
GRIT: Teaching MLLMs to Think with Images
Yue Fan, Xuehai He, Diji Yang, Kaizhi Zheng, Ching-Chen Kuo, Yuting Zheng, Sravana Jyothi Narayanaraju, Xinze Guan, Xin Eric Wang
•
May 21, 2025
•
7
2
AGENTIF : Évaluation des capacités de suivi d'instructions des grands modèles de langage dans des scénarios agentiques
AGENTIF: Benchmarking Instruction Following of Large Language Models in Agentic Scenarios
Yunjia Qi, Hao Peng, Xiaozhi Wang, Amy Xin, Youfeng Liu, Bin Xu, Lei Hou, Juanzi Li
•
May 22, 2025
•
6
2
VLM-R^3 : Reconnaissance, Raisonnement et Raffinement de Régions pour une Chaîne de Pensée Multimodale Améliorée
VLM-R^3: Region Recognition, Reasoning, and Refinement for Enhanced Multimodal Chain-of-Thought
Chaoya Jiang, Yongrui Heng, Wei Ye, Han Yang, Haiyang Xu, Ming Yan, Ji Zhang, Fei Huang, Shikun Zhang
•
May 22, 2025
•
6
2
OViP : Apprentissage en ligne des préférences vision-langage
OViP: Online Vision-Language Preference Learning
Shujun Liu, Siyuan Wang, Zejun Li, Jianxiang Wang, Cheng Zeng, Zhongyu Wei
•
May 21, 2025
•
6
2
Entraînement de vérificateurs de raisonnement au niveau des étapes avec des outils de vérification formelle
Training Step-Level Reasoning Verifiers with Formal Verification Tools
Ryo Kamoi, Yusen Zhang, Nan Zhang, Sarkar Snigdha Sarathi Das, Rui Zhang
•
May 21, 2025
•
6
2
SafeKey : Amplification des insights de type "Aha-Moment" pour le raisonnement de sécurité
SafeKey: Amplifying Aha-Moment Insights for Safety Reasoning
Kaiwen Zhou, Xuandong Zhao, Gaowen Liu, Jayanth Srinivasa, Aosong Feng, Dawn Song, Xin Eric Wang
•
May 22, 2025
•
5
2
L'apprentissage par renforcement affine de petits sous-réseaux dans les grands modèles de langage.
Reinforcement Learning Finetunes Small Subnetworks in Large Language Models
Sagnik Mukherjee, Lifan Yuan, Dilek Hakkani-Tur, Hao Peng
•
May 16, 2025
•
5
2
Think-RM : Permettre le raisonnement à long horizon dans les modèles de récompense génératifs
Think-RM: Enabling Long-Horizon Reasoning in Generative Reward Models
Ilgee Hong, Changlong Yu, Liang Qiu, Weixiang Yan, Zhenghao Xu, Haoming Jiang, Qingru Zhang, Qin Lu, Xin Liu, Chao Zhang, Tuo Zhao
•
May 22, 2025
•
4
2
Et si les androïdes rêvaient de moutons électriques : Un cadre de compréhension et de raisonnement pour les implications d'images à caractère humain
Let Androids Dream of Electric Sheep: A Human-like Image Implication Understanding and Reasoning Framework
Chenhao Zhang, Yazhe Niu
•
May 22, 2025
•
3
3
Multi-SpatialMLLM : Compréhension spatiale multi-images avec des modèles de langage multi-modaux de grande échelle
Multi-SpatialMLLM: Multi-Frame Spatial Understanding with Multi-Modal Large Language Models
Runsen Xu, Weiyao Wang, Hao Tang, Xingyu Chen, Xiaodong Wang, Fu-Jen Chu, Dahua Lin, Matt Feiszli, Kevin J. Liang
•
May 22, 2025
•
3
2
Robo2VLM : Réponse à des questions visuelles à partir de larges ensembles de données de manipulation robotique en environnement réel
Robo2VLM: Visual Question Answering from Large-Scale In-the-Wild Robot Manipulation Datasets
Kaiyuan Chen, Shuangyu Xie, Zehan Ma, Ken Goldberg
•
May 21, 2025
•
3
2
Pilotage des grands modèles de langage pour la personnalisation de la traduction automatique
Steering Large Language Models for Machine Translation Personalization
Daniel Scalena, Gabriele Sarti, Arianna Bisazza, Elisabetta Fersini, Malvina Nissim
•
May 22, 2025
•
2
2
Quand les LLM reconnaissent-ils leurs erreurs ? Comprendre le rôle de la croyance du modèle dans la rétractation
When Do LLMs Admit Their Mistakes? Understanding the Role of Model Belief in Retraction
Yuqing Yang, Robin Jia
•
May 22, 2025
•
2
2
Fragments de date : un goulot d'étranglement caché de la tokenisation pour le raisonnement temporel
Date Fragments: A Hidden Bottleneck of Tokenization for Temporal Reasoning
Gagan Bhatia, Maxime Peyrard, Wei Zhao
•
May 22, 2025
•
2
2
Comment les grands modèles vision-langage perçoivent-ils le texte dans les images ? Révéler le rôle distinctif des têtes OCR
How Do Large Vision-Language Models See Text in Image? Unveiling the Distinctive Role of OCR Heads
Ingeol Baek, Hwan Chang, Sunghyun Ryu, Hwanhee Lee
•
May 21, 2025
•
2
2
RAVENEA : Un Benchmark pour la Compréhension de la Culture Visuelle par Récupération Augmentée Multimodale
RAVENEA: A Benchmark for Multimodal Retrieval-Augmented Visual Culture Understanding
Jiaang Li, Yifei Yuan, Wenyan Li, Mohammad Aliannejadi, Daniel Hershcovich, Anders Søgaard, Ivan Vulić, Wenxuan Zhang, Paul Pu Liang, Yang Deng, Serge Belongie
•
May 20, 2025
•
2
2
MUG-Eval : Un cadre d'évaluation proxy pour les capacités de génération multilingue dans n'importe quelle langue
MUG-Eval: A Proxy Evaluation Framework for Multilingual Generation Capabilities in Any Language
Seyoung Song, Seogyeong Jeong, Eunsu Kim, Jiho Jin, Dongkwan Kim, Jay Shin, Alice Oh
•
May 20, 2025
•
2
2
RoPECraft : Transfert de mouvement sans entraînement grâce à l'optimisation RoPE guidée par trajectoire sur les transformeurs de diffusion
RoPECraft: Training-Free Motion Transfer with Trajectory-Guided RoPE Optimization on Diffusion Transformers
Ahmet Berke Gokmen, Yigit Ekin, Bahri Batuhan Bilecen, Aysegul Dundar
•
May 19, 2025
•
2
2
SPhyR : Benchmark de raisonnement spatial-physique sur la distribution des matériaux
SPhyR: Spatial-Physical Reasoning Benchmark on Material Distribution
Philipp D. Siedler
•
May 21, 2025
•
1
2
gen2seg : Les modèles génératifs permettent une segmentation d'instance généralisable
gen2seg: Generative Models Enable Generalizable Instance Segmentation
Om Khangaonkar, Hamed Pirsiavash
•
May 21, 2025
•
1
2
SAKURA : Sur le raisonnement multi-sauts des grands modèles audio-langage basés sur les informations vocales et sonores
SAKURA: On the Multi-hop Reasoning of Large Audio-Language Models Based on Speech and Audio Information
Chih-Kai Yang, Neo Ho, Yen-Ting Piao, Hung-yi Lee
•
May 19, 2025
•
0
2