ChatPaper.ai
Ouvrir le menu
Accueil
Articles du Jour
arXiv
HuggingFace
Tarifs
Compte
Espace de travail
🇫🇷
Français
Loading...
•
•
•
•
•
•
•
•
•
•
Articles de Recherche en IA Quotidiens
Articles de recherche en IA sélectionnés quotidiennement avec traductions
March 7th, 2025
FuseChat-3.0 : Optimisation des préférences et fusion de modèles hétérogènes
FuseChat-3.0: Preference Optimization Meets Heterogeneous Model Fusion
Ziyi Yang, Fanqi Wan, Longguang Zhong, Canbin Huang, Guosheng Liang, Xiaojun Quan
•
Mar 6, 2025
•
15
3
LLMVoX : Modèle de synthèse vocale en streaming autorégressif pour tout LLM
LLMVoX: Autoregressive Streaming Text-to-Speech Model for Any LLM
Sambal Shikhar, Mohammed Irfan Kurpath, Sahal Shaji Mullappilly, Jean Lahoud, Fahad Khan, Rao Muhammad Anwer, Salman Khan, Hisham Cholakkal
•
Mar 6, 2025
•
70
5
Audio Flamingo 2 : Un modèle audio-langage doté de compétences en compréhension de longs enregistrements audio et en raisonnement expert
Audio Flamingo 2: An Audio-Language Model with Long-Audio Understanding and Expert Reasoning Abilities
Sreyan Ghosh, Zhifeng Kong, Sonal Kumar, S Sakshi, Jaehyeon Kim, Wei Ping, Rafael Valle, Dinesh Manocha, Bryan Catanzaro
•
Mar 6, 2025
•
23
2
Le meilleur des deux mondes : Intégration des modèles de langage et des modèles de diffusion pour la génération vidéo
The Best of Both Worlds: Integrating Language Models and Diffusion Models for Video Generation
Aoxiong Yin, Kai Shen, Yichong Leng, Xu Tan, Xinyu Zhou, Juncheng Li, Siliang Tang
•
Mar 6, 2025
•
9
1
HybridNorm : Vers un entraînement stable et efficace des Transformers via une normalisation hybride
HybridNorm: Towards Stable and Efficient Transformer Training via Hybrid Normalization
Zhijian Zhuo, Yutao Zeng, Ya Wang, Sijun Zhang, Jian Yang, Xiaoqing Li, Xun Zhou, Jinwen Ma
•
Mar 6, 2025
•
20
8
Les modèles dédiés de feedback et d'édition permettent une mise à l'échelle au moment de l'inférence pour des tâches ouvertes dans des domaines généraux.
Dedicated Feedback and Edit Models Empower Inference-Time Scaling for Open-Ended General-Domain Tasks
Zhilin Wang, Jiaqi Zeng, Olivier Delalleau, Daniel Egert, Ellie Evans, Hoo-Chang Shin, Felipe Soares, Yi Dong, Oleksii Kuchaiev
•
Mar 6, 2025
•
7
4
LINGOLY-TOO : Distinguer la mémorisation du raisonnement par la templatisation linguistique et l'obfuscation orthographique
LINGOLY-TOO: Disentangling Memorisation from Reasoning with Linguistic Templatisation and Orthographic Obfuscation
Jude Khouja, Karolina Korgul, Simi Hellsten, Lingyi Yang, Vlad Neacs, Harry Mayne, Ryan Kearns, Andrew Bean, Adam Mahdi
•
Mar 4, 2025
•
25
3
PokéChamp : un agent linguistique Minimax de niveau expert
PokéChamp: an Expert-level Minimax Language Agent
Seth Karten, Andy Luu Nguyen, Chi Jin
•
Mar 6, 2025
•
12
2
IFIR : Un benchmark complet pour l'évaluation du suivi d'instructions dans la recherche d'information en domaine expert
IFIR: A Comprehensive Benchmark for Evaluating Instruction-Following in Expert-Domain Information Retrieval
Tingyu Song, Guo Gan, Mingsheng Shang, Yilun Zhao
•
Mar 6, 2025
•
21
2
Identification des poids sensibles via l'intégrale post-quantification
Identifying Sensitive Weights via Post-quantization Integral
Yuezhou Hu, Weiyu Huang, Zichen Liang, Chang Chen, Jintao Zhang, Jun Zhu, Jianfei Chen
•
Feb 28, 2025
•
7
2
L^2M : Loi d'échelle de l'information mutuelle pour la modélisation du langage à contexte long
L^2M: Mutual Information Scaling Law for Long-Context Language Modeling
Zhuo Chen, Oriol Mayné i Comas, Zhuotao Jin, Di Luo, Marin Soljačić
•
Mar 6, 2025
•
20
2
LLM comme un téléphone arabe : la génération itérative déforme l'information
LLM as a Broken Telephone: Iterative Generation Distorts Information
Amr Mohamed, Mingmeng Geng, Michalis Vazirgiannis, Guokan Shang
•
Feb 27, 2025
•
27
2
Sur l'acquisition de représentations grammaticales partagées dans les modèles de langage bilingues
On the Acquisition of Shared Grammatical Representations in Bilingual Language Models
Catherine Arnett, Tyler A. Chang, James A. Michaelov, Benjamin K. Bergen
•
Mar 5, 2025
•
3
1
Compréhension efficace en tokens de vidéos longues pour les LLMs multimodaux
Token-Efficient Long Video Understanding for Multimodal LLMs
Jindong Jiang, Xiuyu Li, Zhijian Liu, Muyang Li, Guo Chen, Zhiqi Li, De-An Huang, Guilin Liu, Zhiding Yu, Kurt Keutzer, Sungjin Ahn, Jan Kautz, Hongxu Yin, Yao Lu, Song Han, Wonmin Byeon
•
Mar 6, 2025
•
94
2
Comment orienter les latents des LLM pour la détection des hallucinations ?
How to Steer LLM Latents for Hallucination Detection?
Seongheon Park, Xuefeng Du, Min-Hsuan Yeh, Haobo Wang, Yixuan Li
•
Mar 1, 2025
•
11
2
Union d'Experts : Adaptation du routage hiérarchique au transformateur décomposé de manière équivalente
Union of Experts: Adapting Hierarchical Routing to Equivalently Decomposed Transformer
Yujiao Yang, Jing Lian, Linhui Li
•
Mar 4, 2025
•
8
4
EgoLife : Vers un assistant de vie égocentrique
EgoLife: Towards Egocentric Life Assistant
Jingkang Yang, Shuai Liu, Hongming Guo, Yuhao Dong, Xiamengwei Zhang, Sicheng Zhang, Pengyun Wang, Zitang Zhou, Binzhu Xie, Ziyue Wang, Bei Ouyang, Zhengyu Lin, Marco Cominelli, Zhongang Cai, Yuanhan Zhang, Peiyuan Zhang, Fangzhou Hong, Joerg Widmer, Francesco Gringoli, Lei Yang, Bo Li, Ziwei Liu
•
Mar 5, 2025
•
42
2
START : Raisonneur Autodidacte avec Outils
START: Self-taught Reasoner with Tools
Chengpeng Li, Mingfeng Xue, Zhenru Zhang, Jiaxi Yang, Beichen Zhang, Xiang Wang, Bowen Yu, Binyuan Hui, Junyang Lin, Dayiheng Liu
•
Mar 6, 2025
•
111
6
Comprendre et prédire les dérives dans les conversations toxiques sur GitHub
Understanding and Predicting Derailment in Toxic Conversations on GitHub
Mia Mohammad Imran, Robert Zita, Rebekah Copeland, Preetha Chatterjee, Rahat Rizvi Rahman, Kostadin Damevski
•
Mar 4, 2025
•
4
2
Combiner Flow Matching et Transformers pour une résolution efficace des problèmes inverses bayésiens
Combining Flow Matching and Transformers for Efficient Solution of Bayesian Inverse Problems
Daniil Sherki, Ivan Oseledets, Ekaterina Muravleva
•
Mar 3, 2025
•
5
2
Perdus dans le littéralisme : Comment l'apprentissage supervisé façonne le traductais dans les grands modèles de langage
Lost in Literalism: How Supervised Training Shapes Translationese in LLMs
Yafu Li, Ronghao Zhang, Zhilin Wang, Huajian Zhang, Leyang Cui, Yongjing Yin, Tong Xiao, Yue Zhang
•
Mar 6, 2025
•
5
2