ChatPaper.aiChatPaper.ai
Accueil

arXiv

HuggingFace

TarifsCompteEspace de travail

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

Articles de Recherche en IA Quotidiens

Articles de recherche en IA sélectionnés quotidiennement avec traductions

Au-delà de la règle des 80/20 : les tokens minoritaires à haute entropie stimulent l'apprentissage par renforcement efficace pour le raisonnement des LLM
Beyond the 80/20 Rule: High-Entropy Minority Tokens Drive Effective Reinforcement Learning for LLM Reasoning

Shenzhi Wang, Le Yu, Chang Gao, Chujie Zheng, Shixuan Liu, Rui Lu, Kai Dang, Xionghui Chen, Jianxin Yang, Zhenru Zhang, Yuqiong Liu, An Yang, Andrew Zhao, Yang Yue, Shiji Song, Bowen Yu, Gao Huang, Junyang Lin•Jun 2, 2025•1293

SmolVLA : Un modèle vision-langage-action pour une robotique abordable et efficace
SmolVLA: A Vision-Language-Action Model for Affordable and Efficient Robotics

Mustafa Shukor, Dana Aubakirova, Francesco Capuano, Pepijn Kooijmans, Steven Palma, Adil Zouitine, Michel Aractingi, Caroline Pascal, Martino Russi, Andres Marafioti, Simon Alibert, Matthieu Cord, Thomas Wolf, Remi Cadene•Jun 2, 2025•7414

GYM DE RAISONNEMENT : Environnements de raisonnement pour l'apprentissage par renforcement avec récompenses vérifiables
REASONING GYM: Reasoning Environments for Reinforcement Learning with Verifiable Rewards

Zafir Stojanovski, Oliver Stanley, Joe Sharratt, Richard Jones, Abdulhakeem Adefioye, Jean Kaddour, Andreas Köpf•May 30, 2025•584

Domestiquer les LLM en ajustant les taux d'apprentissage par regroupement de gradients
Taming LLMs by Scaling Learning Rates with Gradient Grouping

Siyuan Li, Juanxi Tian, Zedong Wang, Xin Jin, Zicheng Liu, Wentao Zhang, Dan Xu•Jun 1, 2025•354

Réglage contextuel temporel pour un contrôle polyvalent des modèles de diffusion vidéo
Temporal In-Context Fine-Tuning for Versatile Control of Video Diffusion Models

Kinam Kim, Junha Hyung, Jaegul Choo•Jun 1, 2025•343

SRPO : Amélioration du raisonnement multimodal des LLM via l'apprentissage par renforcement conscient de la réflexion
SRPO: Enhancing Multimodal LLM Reasoning via Reflection-Aware Reinforcement Learning

Zhongwei Wan, Zhihao Dou, Che Liu, Yu Zhang, Dongfei Cui, Qinjian Zhao, Hui Shen, Jing Xiong, Yi Xin, Yifan Jiang, Yangfan He, Mi Zhang, Shen Yan•Jun 2, 2025•302

ShapeLLM-Omni : Un modèle de langage multimodal natif pour la génération et la compréhension 3D
ShapeLLM-Omni: A Native Multimodal LLM for 3D Generation and Understanding

Junliang Ye, Zhengyi Wang, Ruowen Zhao, Shenghao Xie, Jun Zhu•Jun 2, 2025•272

ARIA : Entraînement des agents linguistiques par agrégation de récompenses basée sur l'intention
ARIA: Training Language Agents with Intention-Driven Reward Aggregation

Ruihan Yang, Yikai Zhang, Aili Chen, Xintao Wang, Siyu Yuan, Jiangjie Chen, Deqing Yang, Yanghua Xiao•May 31, 2025•272

LoHoVLA : Un modèle unifié vision-langage-action pour les tâches incarnées à long horizon
LoHoVLA: A Unified Vision-Language-Action Model for Long-Horizon Embodied Tasks

Yi Yang, Jiaxuan Sun, Siqi Kou, Yihan Wang, Zhijie Deng•May 31, 2025•272

Jigsaw-R1 : Une étude sur l'apprentissage par renforcement visuel basé sur des règles avec des puzzles de type casse-tête
Jigsaw-R1: A Study of Rule-based Visual Reinforcement Learning with Jigsaw Puzzles

Zifu Wang, Junyi Zhu, Bo Tang, Zhiyu Li, Feiyu Xiong, Jiaqian Yu, Matthew B. Blaschko•May 29, 2025•242

Apprentissage de la génération vidéo pour la manipulation robotique avec contrôle collaboratif de trajectoire
Learning Video Generation for Robotic Manipulation with Collaborative Trajectory Control

Xiao Fu, Xintao Wang, Xian Liu, Jianhong Bai, Runsen Xu, Pengfei Wan, Di Zhang, Dahua Lin•Jun 2, 2025•232

EarthMind : Vers une observation de la Terre multi-granulaire et multi-capteurs avec des modèles multimodaux de grande échelle
EarthMind: Towards Multi-Granular and Multi-Sensor Earth Observation with Large Multimodal Models

Yan Shu, Bin Ren, Zhitong Xiong, Danda Pani Paudel, Luc Van Gool, Begum Demir, Nicu Sebe, Paolo Rota•Jun 2, 2025•202

AReaL : Un système d'apprentissage par renforcement asynchrone à grande échelle pour le raisonnement linguistique
AReaL: A Large-Scale Asynchronous Reinforcement Learning System for Language Reasoning

Wei Fu, Jiaxuan Gao, Xujie Shen, Chen Zhu, Zhiyu Mei, Chuyi He, Shusheng Xu, Guo Wei, Jun Mei, Jiashu Wang, Tongkai Yang, Binhang Yuan, Yi Wu•May 30, 2025•202

Lois d'échelle unifiées pour les représentations compressées
Unified Scaling Laws for Compressed Representations

Andrei Panferov, Alexandra Volkova, Ionut-Vlad Modoranu, Vage Egiazarian, Mher Safaryan, Dan Alistarh•Jun 2, 2025•172

MiCRo : Modélisation par mélange et routage contextuel pour l'apprentissage des préférences personnalisées
MiCRo: Mixture Modeling and Context-aware Routing for Personalized Preference Learning

Jingyan Shen, Jiarui Yao, Rui Yang, Yifan Sun, Feng Luo, Rui Pan, Tong Zhang, Han Zhao•May 30, 2025•152

Incitation au raisonnement pour un suivi avancé des instructions par les grands modèles de langage
Incentivizing Reasoning for Advanced Instruction-Following of Large Language Models

Yulei Qin, Gang Li, Zongyi Li, Zihan Xu, Yuchen Shi, Zhekai Lin, Xiao Cui, Ke Li, Xing Sun•Jun 2, 2025•142

IVY-FAKE : Un cadre explicable unifié et un benchmark pour la détection des contenus générés par IA dans les images et les vidéos
IVY-FAKE: A Unified Explainable Framework and Benchmark for Image and Video AIGC Detection

Wayne Zhang, Changjiang Jiang, Zhonghao Zhang, Chenyang Si, Fengchang Yu, Wei Peng•Jun 1, 2025•133

Du jeton à l'action : Raisonnement par machine à états pour atténuer la surréflexion dans la recherche d'information
From Token to Action: State Machine Reasoning to Mitigate Overthinking in Information Retrieval

Dohyeon Lee, Yeonseok Jeong, Seung-won Hwang•May 29, 2025•132

Raisonner comme un économiste : le post-entraînement sur des problèmes économiques induit une généralisation stratégique dans les LLM
Reasoning Like an Economist: Post-Training on Economic Problems Induces Strategic Generalization in LLMs

Yufa Zhou, Shaobo Wang, Xingyu Dong, Xiangqi Jin, Yifang Chen, Yue Min, Kexin Yang, Xingzhang Ren, Dayiheng Liu, Linfeng Zhang•May 31, 2025•112

Cora : Édition d'images sensible à la correspondance utilisant une diffusion en quelques étapes
Cora: Correspondence-aware image editing using few step diffusion

Amirhossein Almohammadi, Aryan Mikaeili, Sauradip Nag, Negar Hassanpour, Andrea Tagliasacchi, Ali Mahdavi-Amiri•May 29, 2025•112

WebChoreArena : Évaluation des agents de navigation web sur des tâches web fastidieuses et réalistes
WebChoreArena: Evaluating Web Browsing Agents on Realistic Tedious Web Tasks

Atsuyuki Miyai, Zaiying Zhao, Kazuki Egashira, Atsuki Sato, Tatsumi Sunada, Shota Onohara, Hiromasa Yamanishi, Mashiro Toyooka, Kunato Nishina, Ryoma Maeda, Kiyoharu Aizawa, Toshihiko Yamasaki•Jun 2, 2025•103

VisualSphinx : Puzzles logiques visuels synthétiques à grande échelle pour l'apprentissage par renforcement
VisualSphinx: Large-Scale Synthetic Vision Logic Puzzles for RL

Yichen Feng, Zhangchen Xu, Fengqing Jiang, Yuetai Li, Bhaskar Ramasubramanian, Luyao Niu, Bill Yuchen Lin, Radha Poovendran•May 29, 2025•92

OWSM v4 : Amélioration des modèles de parole de style Whisper ouverts par mise à l'échelle et nettoyage des données
OWSM v4: Improving Open Whisper-Style Speech Models via Data Scaling and Cleaning

Yifan Peng, Shakeel Muhammad, Yui Sudo, William Chen, Jinchuan Tian, Chyi-Jiunn Lin, Shinji Watanabe•May 31, 2025•82

Apprentissage à partir de vidéos pour un monde en 3D : Amélioration des MLLM avec des connaissances préalables en vision 3D et géométrie
Learning from Videos for 3D World: Enhancing MLLMs with 3D Vision Geometry Priors

Duo Zheng, Shijia Huang, Yanyang Li, Liwei Wang•May 30, 2025•82

Test de résistance de la détection de texte généré par machine : Modifier le style d'écriture des modèles de langage pour tromper les détecteurs
Stress-testing Machine Generated Text Detection: Shifting Language Models Writing Style to Fool Detectors

Andrea Pedrotti, Michele Papucci, Cristiano Ciaccio, Alessio Miaschi, Giovanni Puccetti, Felice Dell'Orletta, Andrea Esuli•May 30, 2025•82

CodeV-R1 : Génération de Verilog Améliorée par le Raisonnement
CodeV-R1: Reasoning-Enhanced Verilog Generation

Yaoyu Zhu, Di Huang, Hanqi Lyu, Xiaoyun Zhang, Chongxiao Li, Wenxuan Shi, Yutong Wu, Jianan Mu, Jinghua Wang, Yang Zhao, Pengwei Jin, Shuyao Cheng, Shengwen Liang, Xishan Zhang, Rui Zhang, Zidong Du, Qi Guo, Xing Hu, Yunji Chen•May 30, 2025•82

DyePack : Détection garantie de la contamination des ensembles de test dans les LLM grâce à l'utilisation de portes dérobées
DyePack: Provably Flagging Test Set Contamination in LLMs Using Backdoors

Yize Cheng, Wenxiao Wang, Mazda Moayeri, Soheil Feizi•May 29, 2025•82

Guidance d'Attention Normalisée : Une Guidance Négative Universelle pour les Modèles de Diffusion
Normalized Attention Guidance: Universal Negative Guidance for Diffusion Model

Dar-Yen Chen, Hmrishav Bandyopadhyay, Kai Zou, Yi-Zhe Song•May 27, 2025•83

Modèles de langage ésotériques
Esoteric Language Models

Subham Sekhar Sahoo, Zhihan Yang, Yash Akhauri, Johnna Liu, Deepansha Singh, Zhoujun Cheng, Zhengzhong Liu, Eric Xing, John Thickstun, Arash Vahdat•Jun 2, 2025•72

zip2zip : Vocabulaires adaptatifs en temps d'inférence pour les modèles de langage via la compression de tokens
zip2zip: Inference-Time Adaptive Vocabularies for Language Models via Token Compression

Saibo Geng, Nathan Ranchin, Yunzhen yao, Maxime Peyrard, Chris Wendler, Michael Gastpar, Robert West•Jun 1, 2025•72

Machine de Darwin-Gödel : Évolution ouverte d'agents auto-améliorants
Darwin Godel Machine: Open-Ended Evolution of Self-Improving Agents

Jenny Zhang, Shengran Hu, Cong Lu, Robert Lange, Jeff Clune•May 29, 2025•72

QUAND AGIR, QUAND ATTENDRE : Modélisation des trajectoires structurelles pour la déclenchebilité des intentions dans les dialogues orientés tâches
WHEN TO ACT, WHEN TO WAIT: Modeling Structural Trajectories for Intent Triggerability in Task-Oriented Dialogue

Yaoyao Qian, Jindan Huang, Yuanli Wang, Simon Yu, Kyrie Zhixuan Zhou, Jiayuan Mao, Mingfu Liang, Hanhan Zhou•Jun 2, 2025•62

Biais Adversarial en Cascade : De l'Injection à la Distillation dans les Modèles de Langage
Cascading Adversarial Bias from Injection to Distillation in Language Models

Harsh Chaudhari, Jamie Hayes, Matthew Jagielski, Ilia Shumailov, Milad Nasr, Alina Oprea•May 30, 2025•62

VAU-R1 : Amélioration de la compréhension des anomalies vidéo par réglage fin via apprentissage par renforcement
VAU-R1: Advancing Video Anomaly Understanding via Reinforcement Fine-Tuning

Liyun Zhu, Qixiang Chen, Xi Shen, Xiaodong Cun•May 29, 2025•62

SATA-BENCH : Benchmark de sélection multiple pour les questions à choix multiples
SATA-BENCH: Select All That Apply Benchmark for Multiple Choice Questions

Weijie Xu, Shixian Cui, Xi Fang, Chi Xue, Stephanie Eckman, Chandan Reddy•May 31, 2025•52

Pro3D-Editor : Une perspective progressive pour un éditing 3D cohérent et précis
Pro3D-Editor : A Progressive-Views Perspective for Consistent and Precise 3D Editing

Yang Zheng, Mengqi Huang, Nan Chen, Zhendong Mao•May 31, 2025•52

Pas de taille unique : Un calendrier de taux d'apprentissage unifié pour l'entraînement à itérations budgétisées
Stepsize anything: A unified learning rate schedule for budgeted-iteration training

Anda Tang, Yiming Dong, Yutao Zeng, zhou Xun, Zhouchen Lin•May 30, 2025•52

Des lignes directrices à la pratique : Un nouveau paradigme pour l'évaluation des modèles de langage arabes
From Guidelines to Practice: A New Paradigm for Arabic Language Model Evaluation

Serry Sibaee, Omer Nacar, Adel Ammar, Yasser Al-Habashi, Abdulrahman Al-Batati, Wadii Boulila•Jun 2, 2025•43

Des lignes directrices à la pratique : Un nouveau paradigme pour l'évaluation des modèles de langage arabes
From Guidelines to Practice: A New Paradigm for Arabic Language Model Evaluation

Serry Sibaee, Omer Nacar, Adel Ammar, Yasser Al-Habashi, Abdulrahman Al-Batati, Wadii Boulila•Jun 2, 2025•43

LLM en boucle : Création du jeu de données PARADEHATE pour la détoxification des discours haineux
LLM in the Loop: Creating the PARADEHATE Dataset for Hate Speech Detoxification

Shuzhou Yuan, Ercong Nie, Lukas Kouba, Ashish Yashwanth Kangen, Helmut Schmid, Hinrich Schutze, Michael Farber•Jun 2, 2025•43

RARE : Évaluation de la Robustesse Consciente de la Recherche pour les Systèmes de Génération Augmentée par Recherche
RARE: Retrieval-Aware Robustness Evaluation for Retrieval-Augmented Generation Systems

Yixiao Zeng, Tianyu Cao, Danqing Wang, Xinran Zhao, Zimeng Qiu, Morteza Ziyadi, Tongshuang Wu, Lei Li•Jun 1, 2025•42

ComposeAnything : Priorités d'objets composites pour la génération d'images à partir de texte
ComposeAnything: Composite Object Priors for Text-to-Image Generation

Zeeshan Khan, Shizhe Chen, Cordelia Schmid•May 30, 2025•43

OmniResponse : Génération en ligne de réponses conversationnelles multimodales dans les interactions dyadiques
OmniResponse: Online Multimodal Conversational Response Generation in Dyadic Interactions

Cheng Luo, Jianghui Wang, Bing Li, Siyang Song, Bernard Ghanem•May 27, 2025•42

Comment les concepts de programmation et les neurones sont partagés dans les modèles de langage de code
How Programming Concepts and Neurons Are Shared in Code Language Models

Amir Hossein Kargaran, Yihong Liu, François Yvon, Hinrich Schütze•Jun 1, 2025•32

SealQA : Rehausser les standards de raisonnement dans les modèles de langage augmentés par la recherche
SealQA: Raising the Bar for Reasoning in Search-Augmented Language Models

Thinh Pham, Nguyen Nguyen, Pratibha Zunjare, Weiyuan Chen, Yu-Min Tseng, Tu Vu•Jun 1, 2025•32

Pièges dans l'évaluation des modèles de langage prédictifs
Pitfalls in Evaluating Language Model Forecasters

Daniel Paleka, Shashwat Goel, Jonas Geiping, Florian Tramèr•May 31, 2025•32

SenseFlow : Mise à l'échelle de l'appariement de distribution pour la distillation texte-image basée sur les flux
SenseFlow: Scaling Distribution Matching for Flow-based Text-to-Image Distillation

Xingtong Ge, Xin Zhang, Tongda Xu, Yi Zhang, Xinjie Zhang, Yan Wang, Jun Zhang•May 31, 2025•32

MaskSearch : Un Cadre Universel de Pré-Entraînement pour Améliorer la Capacité de Recherche Agentique
MaskSearch: A Universal Pre-Training Framework to Enhance Agentic Search Capability

Weiqi Wu, Xin Guan, Shen Huang, Yong Jiang, Pengjun Xie, Fei Huang, Jiuxin Cao, Hai Zhao, Jingren Zhou•May 26, 2025•32

Réfléchissez à nouveau ! L'effet du calcul au moment du test sur les préférences, opinions et croyances des grands modèles de langage
Think Again! The Effect of Test-Time Compute on Preferences, Opinions, and Beliefs of Large Language Models

George Kour, Itay Nakash, Ateret Anaby-Tavor, Michal Shmueli-Scheuer•May 26, 2025•32

Alignement des assistants VLM avec la cognition située personnalisée
Aligning VLM Assistants with Personalized Situated Cognition

Yongqi Li, Shen Zhou, Xiaohu Li, Xin Miao, Jintao Wen, Mayi Xu, Jianhao Chen, Birong Pan, Hankun Kang, Yuanyuan Zhu, Ming Zhong, Tieyun Qian•Jun 1, 2025•22

LIFT le voile pour révéler la vérité : les poids principaux émergent après la réduction de rang pour un réglage fin supervisé axé sur le raisonnement
LIFT the Veil for the Truth: Principal Weights Emerge after Rank Reduction for Reasoning-Focused Supervised Fine-Tuning

Zihang Liu, Tianyu Pang, Oleg Balabanov, Chaoqun Yang, Tianjin Huang, Lu Yin, Yaoqing Yang, Shiwei Liu•Jun 1, 2025•22

CityLens : Évaluation des modèles de langage-vision de grande envergure pour la détection socio-économique urbaine
CityLens: Benchmarking Large Language-Vision Models for Urban Socioeconomic Sensing

Tianhui Liu, Jie Feng, Hetian Pang, Xin Zhang, Tianjian Ouyang, Zhiyuan Zhang, Yong Li•May 31, 2025•22

Adaptation multilingue à grande échelle des modèles de langage de grande taille à l'aide de données de traduction bilingue
Massively Multilingual Adaptation of Large Language Models Using Bilingual Translation Data

Shaoxiong Ji, Zihao Li, Jaakko Paavola, Indraneil Paul, Hengyu Luo, Jörg Tiedemann•May 31, 2025•22

MagiCodec : Codec simple à injection gaussienne masquée pour la reconstruction et la génération haute fidélité
MagiCodec: Simple Masked Gaussian-Injected Codec for High-Fidelity Reconstruction and Generation

Yakun Song, Jiawei Chen, Xiaobin Zhuang, Chenpeng Du, Ziyang Ma, Jian Wu, Jian Cong, Dongya Jia, Zhuo Chen, Yuping Wang, Yuxuan Wang, Xie Chen•May 31, 2025•22

Neuro2Semantic : Un cadre d'apprentissage par transfert pour la reconstruction sémantique du langage continu à partir d'électroencéphalographie intracrânienne humaine
Neuro2Semantic: A Transfer Learning Framework for Semantic Reconstruction of Continuous Language from Human Intracranial EEG

Siavash Shams, Richard Antonello, Gavin Mischler, Stephan Bickel, Ashesh Mehta, Nima Mesgarani•May 31, 2025•22

BinauralFlow : Une approche causale et streamable pour la synthèse de parole binaurale de haute qualité avec des modèles de correspondance de flux
BinauralFlow: A Causal and Streamable Approach for High-Quality Binaural Speech Synthesis with Flow Matching Models

Susan Liang, Dejan Markovic, Israel D. Gebru, Steven Krenn, Todd Keebler, Jacob Sandakly, Frank Yu, Samuel Hassel, Chenliang Xu, Alexander Richard•May 28, 2025•22

R1-Code-Interpreter : Entraînement des LLM à raisonner avec du code via l'apprentissage supervisé et par renforcement
R1-Code-Interpreter: Training LLMs to Reason with Code via Supervised and Reinforcement Learning

Yongchao Chen, Yueying Liu, Junwei Zhou, Yilun Hao, Jingquan Wang, Yang Zhang, Chuchu Fan•May 27, 2025•22

Frankentext : Assemblage de fragments textuels aléatoires en récits de longue haleine
Frankentext: Stitching random text fragments into long-form narratives

Chau Minh Pham, Jenna Russell, Dzung Pham, Mohit Iyyer•May 23, 2025•22

Planification et Budget : Mise à l'échelle efficace et efficiente des tests sur le raisonnement des grands modèles de langage
Plan and Budget: Effective and Efficient Test-Time Scaling on Large Language Model Reasoning

Junhong Lin, Xinyue Zeng, Jie Zhu, Song Wang, Julian Shun, Jun Wu, Dawei Zhou•May 22, 2025•22

Pixels contre a priori : Contrôle des connaissances a priori dans les modèles vision-langage à travers des contre-faits visuels
Pixels Versus Priors: Controlling Knowledge Priors in Vision-Language Models through Visual Counterfacts

Michal Golovanevsky, William Rudman, Michael Lepori, Amir Bar, Ritambhara Singh, Carsten Eickhoff•May 21, 2025•22

MIKU-PAL : Une méthode automatisée et standardisée multi-modale pour l'étiquetage paralinguistique et affectif de la parole
MIKU-PAL: An Automated and Standardized Multi-Modal Method for Speech Paralinguistic and Affect Labeling

Yifan Cheng, Ruoyi Zhang, Jiatong Shi•May 21, 2025•22

Augmentation par Shuffle PatchMix avec Pseudo-Étiquettes Pondérées par la Marge de Confiance pour une Adaptation de Domaine Sans Source Améliorée
Shuffle PatchMix Augmentation with Confidence-Margin Weighted Pseudo-Labels for Enhanced Source-Free Domain Adaptation

Prasanna Reddy Pulakurthi, Majid Rabbani, Jamison Heard, Sohail Dianat, Celso M. de Melo, Raghuveer Rao•May 30, 2025•12

Synthèse de circuits quantiques discrets-continus avec des modèles de diffusion multimodaux
Synthesis of discrete-continuous quantum circuits with multimodal diffusion models

Florian Fürrutter, Zohim Chandani, Ikko Hamamura, Hans J. Briegel, Gorka Muñoz-Gil•Jun 2, 2025•02