ChatPaper.aiChatPaper.ai
Accueil

arXiv

HuggingFace

TarifsCompteEspace de travail

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

Articles de Recherche en IA Quotidiens

Articles de recherche en IA sélectionnés quotidiennement avec traductions

ProRL : L'apprentissage par renforcement prolongé repousse les limites du raisonnement dans les grands modèles de langage
ProRL: Prolonged Reinforcement Learning Expands Reasoning Boundaries in Large Language Models

Mingjie Liu, Shizhe Diao, Ximing Lu, Jian Hu, Xin Dong, Yejin Choi, Jan Kautz, Yi Dong•May 30, 2025•1123

AlphaOne : Modèles de raisonnement pensant lentement et rapidement au moment des tests
AlphaOne: Reasoning Models Thinking Slow and Fast at Test Time

Junyu Zhang, Runpei Dong, Han Wang, Xuying Ning, Haoran Geng, Peihao Li, Xialin He, Yutong Bai, Jitendra Malik, Saurabh Gupta, Huan Zhang•May 30, 2025•862

Cécité temporelle : Pourquoi les modèles vidéo-langage ne voient-ils pas ce que les humains perçoivent ?
Time Blindness: Why Video-Language Models Can't See What Humans Can?

Ujjwal Upadhyay, Mukul Ranjan, Zhiqiang Shen, Mohamed Elhoseiny•May 30, 2025•723

Grands modèles de langage pour la synthèse de données
Large Language Models for Data Synthesis

Yihong Tang, Menglin Kong, Lijun Sun•May 20, 2025•472

HardTests : Synthétiser des cas de test de haute qualité pour le codage avec LLM
HardTests: Synthesizing High-Quality Test Cases for LLM Coding

Zhongmou He, Yee Man Choi, Kexun Zhang, Jiabao Ji, Junting Zhou, Dejia Xu, Ivan Bercovich, Aidan Zhang, Lei Li•May 30, 2025•412

Ne vous contentez pas de regarder une seule fois : Vers un raisonnement interactif multimodal avec réexamen visuel sélectif
Don't Look Only Once: Towards Multimodal Interactive Reasoning with Selective Visual Revisitation

Jiwan Chung, Junhyeok Kim, Siyeol Kim, Jaeyoung Lee, Min Soo Kim, Youngjae Yu•May 24, 2025•352

ViStoryBench : Suite de référence exhaustive pour la visualisation d'histoires
ViStoryBench: Comprehensive Benchmark Suite for Story Visualization

Cailin Zhuang, Ailin Huang, Wei Cheng, Jingwei Wu, Yaoqi Hu, Jiaqi Liao, Zhewei Huang, Hongyuan Wang, Xinyao Liao, Weiwei Cai, Hengyuan Xu, Xuanyang Zhang, Xianfang Zeng, Gang Yu, Chi Zhang•May 30, 2025•302

DINO-R1 : Stimuler les capacités de raisonnement dans les modèles de base en vision
DINO-R1: Incentivizing Reasoning Capability in Vision Foundation Models

Chenbin Pan, Wenbin He, Zhengzhong Tu, Liu Ren•May 29, 2025•233

EXP-Bench : L'IA peut-elle mener des expériences de recherche en IA ?
EXP-Bench: Can AI Conduct AI Research Experiments?

Patrick Tser Jern Kon, Jiachen Liu, Xinyi Zhu, Qiuyi Ding, Jingjia Peng, Jiarong Xing, Yibo Huang, Yiming Qiu, Jayanth Srinivasa, Myungjin Lee, Mosharaf Chowdhury, Matei Zaharia, Ang Chen•May 30, 2025•223

Open CaptchaWorld : Une plateforme web complète pour tester et évaluer les agents LLM multimodaux
Open CaptchaWorld: A Comprehensive Web-based Platform for Testing and Benchmarking Multimodal LLM Agents

Yaxin Luo, Zhaoyi Li, Jiacheng Liu, Jiacheng Cui, Xiaohan Zhao, Zhiqiang Shen•May 30, 2025•212

CoDA : Optimisation coordonnée du bruit de diffusion pour la manipulation corporelle intégrale d'objets articulés
CoDA: Coordinated Diffusion Noise Optimization for Whole-Body Manipulation of Articulated Objects

Huaijin Pi, Zhi Cen, Zhiyang Dou, Taku Komura•May 27, 2025•202

MoDoMoDo : Mélanges de Données Multi-Domaines pour l'Apprentissage par Renforcement de Modèles Multimodaux de Langage
MoDoMoDo: Multi-Domain Data Mixtures for Multimodal LLM Reinforcement Learning

Yiqing Liang, Jielin Qiu, Wenhao Ding, Zuxin Liu, James Tompkin, Mengdi Xu, Mengzhou Xia, Zhengzhong Tu, Laixi Shi, Jiacheng Zhu•May 30, 2025•183

Les modèles de vision et de langage présentent des biais
Vision Language Models are Biased

An Vo, Khai-Nguyen Nguyen, Mohammad Reza Taesiri, Vy Tuong Dang, Anh Totti Nguyen, Daeyoung Kim•May 29, 2025•172

EmergentTTS-Eval : Évaluation des modèles de synthèse vocale sur les défis complexes de prosodie, d'expressivité et de linguistique en utilisant une approche Model-as-a-Judge
EmergentTTS-Eval: Evaluating TTS Models on Complex Prosodic, Expressiveness, and Linguistic Challenges Using Model-as-a-Judge

Ruskin Raj Manku, Yuzhi Tang, Xingjian Shi, Mu Li, Alex Smola•May 29, 2025•172

MetaFaith : Expression fidèle de l'incertitude en langage naturel dans les LLM
MetaFaith: Faithful Natural Language Uncertainty Expression in LLMs

Gabrielle Kaili-May Liu, Gal Yona, Avi Caciularu, Idan Szpektor, Tim G. J. Rudner, Arman Cohan•May 30, 2025•162

UniGeo : Maîtriser la diffusion vidéo pour une estimation unifiée et cohérente de la géométrie
UniGeo: Taming Video Diffusion for Unified Consistent Geometry Estimation

Yang-Tian Sun, Xin Yu, Zehuan Huang, Yi-Hua Huang, Yuan-Chen Guo, Ziyi Yang, Yan-Pei Cao, Xiaojuan Qi•May 30, 2025•152

Plus de réflexion, moins de vision ? Évaluation de l'hallucination amplifiée dans les modèles de raisonnement multimodal
More Thinking, Less Seeing? Assessing Amplified Hallucination in Multimodal Reasoning Models

Chengzhi Liu, Zhongxing Xu, Qingyue Wei, Juncheng Wu, James Zou, Xin Eric Wang, Yuyin Zhou, Sheng Liu•May 23, 2025•142

CLaSp : Saut de couche contextuel pour le décodage auto-spéculatif
CLaSp: In-Context Layer Skip for Self-Speculative Decoding

Longze Chen, Renke Shan, Huiming Wang, Lu Wang, Ziqiang Liu, Run Luo, Jiawei Wang, Hamid Alinejad-Rokny, Min Yang•May 30, 2025•136

EasyText : Transformateur de diffusion contrôlable pour le rendu de texte multilingue
EasyText: Controllable Diffusion Transformer for Multilingual Text Rendering

Runnan Lu, Yuxuan Zhang, Jailing Liu, Haifa Wang, Yiren Song•May 30, 2025•122

Les grands modèles de langage sont des applications linéaires locales.
Large Language Models are Locally Linear Mappings

James R. Golden•May 30, 2025•114

ReasonGen-R1 : CoT pour les modèles de génération d'images autorégressifs via SFT et RL
ReasonGen-R1: CoT for Autoregressive Image generation models through SFT and RL

Yu Zhang, Yunqi Li, Yifan Yang, Rui Wang, Yuqing Yang, Dai Qi, Jianmin Bao, Dongdong Chen, Chong Luo, Lili Qiu•May 30, 2025•102

Décodage Fork-Merge : Amélioration de la compréhension multimodale dans les grands modèles de langage audio-visuels
Fork-Merge Decoding: Enhancing Multimodal Understanding in Audio-Visual Large Language Models

Chaeyoung Jung, Youngjoon Jang, Jongmin Choi, Joon Son Chung•May 27, 2025•102

Exploiter les signaux négatifs : Distillation par renforcement à partir des données de l'enseignant pour le raisonnement des grands modèles de langage
Harnessing Negative Signals: Reinforcement Distillation from Teacher Data for LLM Reasoning

Shuyao Xu, Cheng Peng, Jiangxuan Long, Weidi Xu, Wei Chu, Yuan Qi•May 30, 2025•93

DexUMI : Utiliser la main humaine comme interface universelle de manipulation pour une préhension dextre
DexUMI: Using Human Hand as the Universal Manipulation Interface for Dexterous Manipulation

Mengda Xu, Han Zhang, Yifan Hou, Zhenjia Xu, Linxi Fan, Manuela Veloso, Shuran Song•May 28, 2025•92

ChARM : Modélisation de récompense adaptative basée sur les caractères pour des agents de langage de jeu de rôle avancés
ChARM: Character-based Act-adaptive Reward Modeling for Advanced Role-Playing Language Agents

Feiteng Fang, Ting-En Lin, Yuchuan Wu, Xiong Liu, Xiang Huang, Dingwei Chen, Jing Ye, Haonan Zhang, Liang Zhu, Hamid Alinejad-Rokny, Min Yang, Fei Huang, Yongbin Li•May 29, 2025•72

Évaluation par jeu de rôle pour les grands modèles de langage
Role-Playing Evaluation for Large Language Models

Yassine El Boudouri, Walter Nuninger, Julian Alvarez, Yvan Peter•May 19, 2025•72

Évaluation et pilotage des préférences modales dans les modèles de langage multimodal de grande échelle
Evaluating and Steering Modality Preferences in Multimodal Large Language Model

Yu Zhang, Jinlong Ma, Yongshuai Hou, Xuefeng Bai, Kehai Chen, Yang Xiang, Jun Yu, Min Zhang•May 27, 2025•62

SiLVR : Un cadre simple de raisonnement vidéo basé sur le langage
SiLVR: A Simple Language-based Video Reasoning Framework

Ce Zhang, Yan-Bo Lin, Ziyang Wang, Mohit Bansal, Gedas Bertasius•May 30, 2025•52

Exploiter les modèles de langage à grande échelle pour la détection de nouveauté scientifique
Harnessing Large Language Models for Scientific Novelty Detection

Yan Liu, Zonglin Yang, Soujanya Poria, Thanh-Son Nguyen, Erik Cambria•May 30, 2025•52

un^2CLIP : Amélioration de la capacité de capture des détails visuels de CLIP via l'inversion d'unCLIP
un^2CLIP: Improving CLIP's Visual Detail Capturing Ability via Inverting unCLIP

Yinqi Li, Jiahe Zhao, Hong Chang, Ruibing Hou, Shiguang Shan, Xilin Chen•May 30, 2025•52

Affiner un modèle de langage spécialisé ou solliciter un modèle de langage généraliste ? Le cas de la génération de workflows low-code.
Fine-Tune an SLM or Prompt an LLM? The Case of Generating Low-Code Workflows

Orlando Marquez Ayala, Patrice Bechard, Emily Chen, Maggie Baird, Jingfei Chen•May 30, 2025•52

Point-MoE : Vers une généralisation inter-domaines dans la segmentation sémantique 3D via un mélange d'experts
Point-MoE: Towards Cross-Domain Generalization in 3D Semantic Segmentation via Mixture-of-Experts

Xuweiyi Chen, Wentao Zhou, Aruni RoyChowdhury, Zezhou Cheng•May 29, 2025•52

Permettre une intégration flexible de plusieurs LLM pour une agrégation de connaissances évolutive
Enabling Flexible Multi-LLM Integration for Scalable Knowledge Aggregation

Zhenglun Kong, Zheng Zhan, Shiyue Hou, Yifan Gong, Xin Meng, Pengwei Sui, Peiyan Dong, Xuan Shen, Zifeng Wang, Pu Zhao, Hao Tang, Stratis Ioannidis, Yanzhi Wang•May 28, 2025•52

Réexamen des transitions d'état bi-linéaires dans les réseaux de neurones récurrents
Revisiting Bi-Linear State Transitions in Recurrent Neural Networks

M. Reza Ebrahimi, Roland Memisevic•May 27, 2025•42

TRIDENT : Amélioration de la sécurité des grands modèles de langage grâce à la synthèse de données de test d'intrusion tri-dimensionnelle diversifiée
TRIDENT: Enhancing Large Language Model Safety with Tri-Dimensional Diversified Red-Teaming Data Synthesis

Xiaorui Wu, Xiaofeng Mao, Fei Li, Xin Zhang, Xuanhong Li, Chong Teng, Donghong Ji, Zhuang Li•May 30, 2025•32

GATE : Encodage de texte arabe général pour une similarité sémantique textuelle améliorée avec apprentissage de représentations Matryoshka et entraînement par fonction de perte hybride
GATE: General Arabic Text Embedding for Enhanced Semantic Textual Similarity with Matryoshka Representation Learning and Hybrid Loss Training

Omer Nacar, Anis Koubaa, Serry Sibaee, Yasser Al-Habashi, Adel Ammar, Wadii Boulila•May 30, 2025•32

Grammaires de l'incertitude formelle : Quand faire confiance aux LLM dans les tâches de raisonnement automatisé
Grammars of Formal Uncertainty: When to Trust LLMs in Automated Reasoning Tasks

Debargha Ganguly, Vikash Singh, Sreehari Sankar, Biyao Zhang, Xuecen Zhang, Srinivasan Iyengar, Xiaotian Han, Amit Sharma, Shivkumar Kalyanaraman, Vipin Chaudhary•May 26, 2025•32

Le Jeu Automatisé mais Risqué : Modélisation des Négociations et Transactions entre Agents sur les Marchés de Consommation
The Automated but Risky Game: Modeling Agent-to-Agent Negotiations and Transactions in Consumer Markets

Shenzhe Zhu, Jiao Sun, Yi Nian, Tobin South, Alex Pentland, Jiaxin Pei•May 29, 2025•23

OMNIGUARD : Une approche efficace pour la modération de la sécurité de l'IA à travers les modalités
OMNIGUARD: An Efficient Approach for AI Safety Moderation Across Modalities

Sahil Verma, Keegan Hines, Jeff Bilmes, Charlotte Siska, Luke Zettlemoyer, Hila Gonen, Chandan Singh•May 29, 2025•22

LegalSearchLM : Repenser la recherche de jurisprudence comme une génération d'éléments juridiques
LegalSearchLM: Rethinking Legal Case Retrieval as Legal Elements Generation

Chaeeun Kim, Jinu Lee, Wonseok Hwang•May 28, 2025•21

Le contexte est essentiel pour identifier le passage pertinent : Évaluation et entraînement des représentations contextuelles de documents
Context is Gold to find the Gold Passage: Evaluating and Training Contextual Document Embeddings

Max Conti, Manuel Faysse, Gautier Viaud, Antoine Bosselut, Céline Hudelot, Pierre Colombo•May 30, 2025•12

L'état de la recherche sur la sécurité des LLM multilingues : de la mesure de l'écart linguistique à son atténuation
The State of Multilingual LLM Safety Research: From Measuring the Language Gap to Mitigating It

Zheng-Xin Yong, Beyza Ermis, Marzieh Fadaee, Stephen H. Bach, Julia Kreutzer•May 30, 2025•12