ChatPaper.ai
Ouvrir le menu
Accueil
Articles du Jour
arXiv
HuggingFace
Tarifs
Compte
Espace de travail
🇫🇷
Français
Loading...
•
•
•
•
•
•
•
•
•
•
Articles de Recherche en IA Quotidiens
Articles de recherche en IA sélectionnés quotidiennement avec traductions
March 4th, 2025
CodeArena : Une plateforme d'évaluation collective pour la génération de code par LLM
CodeArena: A Collective Evaluation Platform for LLM Code Generation
Mingzhe Du, Anh Tuan Luu, Bin Ji, Xiaobao Wu, Dong Huang, Terry Yue Zhuo, Qian Liu, See-Kiong Ng
•
Mar 3, 2025
•
8
2
Comportements cognitifs permettant aux raisonneurs de s'améliorer par eux-mêmes, ou, les quatre habitudes des STaRs hautement efficaces
Cognitive Behaviors that Enable Self-Improving Reasoners, or, Four Habits of Highly Effective STaRs
Kanishk Gandhi, Ayush Chakravarthy, Anikait Singh, Nathan Lile, Noah D. Goodman
•
Mar 3, 2025
•
38
3
OneRec : Unification de la récupération et du classement avec un système de recommandation génératif et un alignement itératif des préférences
OneRec: Unifying Retrieve and Rank with Generative Recommender and Iterative Preference Alignment
Jiaxin Deng, Shiyao Wang, Kuo Cai, Lejian Ren, Qigen Hu, Weifeng Ding, Qiang Luo, Guorui Zhou
•
Feb 26, 2025
•
25
2
VideoUFO : Un ensemble de données à l'échelle du million centré sur l'utilisateur pour la génération texte-vidéo
VideoUFO: A Million-Scale User-Focused Dataset for Text-to-Video Generation
Wenhao Wang, Yi Yang
•
Mar 3, 2025
•
8
2
Langues tonales inventées par l'IA : Prévenir une lingua franca machinique au-delà de la compréhension humaine
AI-Invented Tonal Languages: Preventing a Machine Lingua Franca Beyond Human Understanding
David Noever
•
Mar 2, 2025
•
5
2
Qilin : Un ensemble de données de recherche d'information multimodale avec des sessions utilisateur au niveau des applications
Qilin: A Multimodal Information Retrieval Dataset with APP-level User Sessions
Jia Chen, Qian Dong, Haitao Li, Xiaohui He, Yan Gao, Shaosheng Cao, Yi Wu, Ping Yang, Chen Xu, Yao Hu, Qingyao Ai, Yiqun Liu
•
Mar 1, 2025
•
12
2
Reconstruction de la disposition de pièces à partir de vues éparses non posées à l'ère des modèles pré-entraînés
Unposed Sparse Views Room Layout Reconstruction in the Age of Pretrain Model
Yaxuan Huang, Xili Dai, Jianan Wang, Xianbiao Qi, Yixing Yuan, Xiangyu Yue
•
Feb 24, 2025
•
3
2
Sélection de données à grande échelle pour le réglage par instructions
Large-Scale Data Selection for Instruction Tuning
Hamish Ivison, Muru Zhang, Faeze Brahman, Pang Wei Koh, Pradeep Dasigi
•
Mar 3, 2025
•
12
2
DiffRhythm : Une génération de chansons complètes extrêmement rapide et incroyablement simple de bout en bout avec la diffusion latente
DiffRhythm: Blazingly Fast and Embarrassingly Simple End-to-End Full-Length Song Generation with Latent Diffusion
Ziqian Ning, Huakang Chen, Yuepeng Jiang, Chunbo Hao, Guobin Ma, Shuai Wang, Jixun Yao, Lei Xie
•
Mar 3, 2025
•
27
2
DuoDecoding : Décodage spéculatif hétérogène adapté au matériel avec génération dynamique de séquences multiples
DuoDecoding: Hardware-aware Heterogeneous Speculative Decoding with Dynamic Multi-Sequence Drafting
Kai Lv, Honglin Guo, Qipeng Guo, Xipeng Qiu
•
Mar 2, 2025
•
13
2
La forme des mots compte : la reconstruction sémantique des LLM face à la typoglycémie
Word Form Matters: LLMs' Semantic Reconstruction under Typoglycemia
Chenxi Wang, Tianle Gu, Zhongyu Wei, Lang Gao, Zirui Song, Xiuying Chen
•
Mar 3, 2025
•
5
2
Enseignement de la distance métrique aux modèles fondationnels multimodaux autorégressifs
Teaching Metric Distance to Autoregressive Multimodal Foundational Models
Jiwan Chung, Saejin Kim, Yongrae Jo, Jaewoo Park, Dongjun Min, Youngjae Yu
•
Mar 4, 2025
•
4
2
Rapport technique Phi-4-Mini : Des modèles de langage multimodaux compacts mais puissants grâce au mélange de LoRAs
Phi-4-Mini Technical Report: Compact yet Powerful Multimodal Language Models via Mixture-of-LoRAs
Abdelrahman Abouelenin, Atabak Ashfaq, Adam Atkinson, Hany Awadalla, Nguyen Bach, Jianmin Bao, Alon Benhaim, Martin Cai, Vishrav Chaudhary, Congcong Chen, Dong Chen, Dongdong Chen, Junkun Chen, Weizhu Chen, Yen-Chun Chen, Yi-ling Chen, Qi Dai, Xiyang Dai, Ruchao Fan, Mei Gao, Min Gao, Amit Garg, Abhishek Goswami, Junheng Hao, Amr Hendy, Yuxuan Hu, Xin Jin, Mahmoud Khademi, Dongwoo Kim, Young Jin Kim, Gina Lee, Jinyu Li, Yunsheng Li, Chen Liang, Xihui Lin, Zeqi Lin, Mengchen Liu, Yang Liu, Gilsinia Lopez, Chong Luo, Piyush Madan, Vadim Mazalov, Ali Mousavi, Anh Nguyen, Jing Pan, Daniel Perez-Becker, Jacob Platin, Thomas Portet, Kai Qiu, Bo Ren, Liliang Ren, Sambuddha Roy, Ning Shang, Yelong Shen, Saksham Singhal, Subhojit Som, Xia Song, Tetyana Sych, Praneetha Vaddamanu, Shuohang Wang, Yiming Wang, Zhenghao Wang, Haibin Wu, Haoran Xu, Weijian Xu, Yifan Yang, Ziyi Yang, Donghan Yu, Ishmam Zabir, Jianwen Zhang, Li Lyna Zhang, Yunan Zhang, Xiren Zhou
•
Mar 3, 2025
•
86
6
Pourquoi les agents IA web sont-ils plus vulnérables que les LLM autonomes ? Une analyse de sécurité
Why Are Web AI Agents More Vulnerable Than Standalone LLMs? A Security Analysis
Jeffrey Yang Fan Chiang, Seungjae Lee, Jia-Bin Huang, Furong Huang, Yizheng Chen
•
Feb 27, 2025
•
3
2
Visual-RFT : Réglage fin par renforcement visuel
Visual-RFT: Visual Reinforcement Fine-Tuning
Ziyu Liu, Zeyi Sun, Yuhang Zang, Xiaoyi Dong, Yuhang Cao, Haodong Duan, Dahua Lin, Jiaqi Wang
•
Mar 3, 2025
•
78
2
Mise à l'échelle efficace en temps de test via auto-étalonnage
Efficient Test-Time Scaling via Self-Calibration
Chengsong Huang, Langlin Huang, Jixuan Leng, Jiacheng Liu, Jiaxin Huang
•
Feb 25, 2025
•
15
2
Kiss3DGen : Réutilisation des modèles de diffusion d'images pour la génération d'actifs 3D
Kiss3DGen: Repurposing Image Diffusion Models for 3D Asset Generation
Jiantao Lin, Xin Yang, Meixi Chen, Yingjie Xu, Dongyu Yan, Leyi Wu, Xinli Xu, Lie XU, Shunsi Zhang, Ying-Cong Chen
•
Mar 3, 2025
•
15
2
SampleMix : Une stratégie de mélange de données de pré-entraînement échantillon par échantillon par coordination de la qualité et de la diversité des données
SampleMix: A Sample-wise Pre-training Data Mixing Strategey by Coordinating Data Quality and Diversity
Xiangyu Xi, Deyang Kong, Jian Yang, Jiawei Yang, Zhengyu Chen, Wei Wang, Jingang Wang, Xunliang Cai, Shikun Zhang, Wei Ye
•
Mar 3, 2025
•
9
2
Requêtes ad hoc spéculatives
Speculative Ad-hoc Querying
Haoyu Li, Srikanth Kandula, Maria Angels de Luis Balaguer, Aditya Akella, Venkat Arun
•
Mar 2, 2025
•
13
2
Le raisonnement général nécessite d'apprendre à raisonner dès le départ.
General Reasoning Requires Learning to Reason from the Get-go
Seungwook Han, Jyothish Pari, Samuel J. Gershman, Pulkit Agrawal
•
Feb 26, 2025
•
5
2
CLEA : Agent Embodiqué en Boucle Fermée pour l'Amélioration de l'Exécution des Tâches dans des Environnements Dynamiques
CLEA: Closed-Loop Embodied Agent for Enhancing Task Execution in Dynamic Environments
Mingcong Lei, Ge Wang, Yiming Zhao, Zhixin Mai, Qing Zhao, Yao Guo, Zhen Li, Shuguang Cui, Yatong Han, Jinke Ren
•
Mar 2, 2025
•
3
2
De plusieurs heures à quelques minutes : accélération sans perte de la génération de séquences ultra-longues jusqu'à 100 000 tokens
From Hours to Minutes: Lossless Acceleration of Ultra Long Sequence Generation up to 100K Tokens
Tong Wu, Junzhe Shen, Zixia Jia, Yuxuan Wang, Zilong Zheng
•
Feb 26, 2025
•
30
2
Lorsqu'un modèle de langage (LLM) exprime des réserves quant à ses réponses -- et que son incertitude est justifiée
When an LLM is apprehensive about its answers -- and when its uncertainty is justified
Petr Sychev, Andrey Goncharov, Daniil Vyazhev, Edvard Khalafyan, Alexey Zaytsev
•
Mar 3, 2025
•
21
2
Liger : Linéarisation des grands modèles de langage en structures récurrentes à portes
Liger: Linearizing Large Language Models to Gated Recurrent Structures
Disen Lan, Weigao Sun, Jiaxi Hu, Jusen Du, Yu Cheng
•
Mar 3, 2025
•
18
2
Difix3D+ : Amélioration des reconstructions 3D grâce à des modèles de diffusion en une seule étape
Difix3D+: Improving 3D Reconstructions with Single-Step Diffusion Models
Jay Zhangjie Wu, Yuxuan Zhang, Haithem Turki, Xuanchi Ren, Jun Gao, Mike Zheng Shou, Sanja Fidler, Zan Gojcic, Huan Ling
•
Mar 3, 2025
•
44
2
RSQ : Apprendre à partir des tokens importants conduit à de meilleurs LLM quantifiés
RSQ: Learning from Important Tokens Leads to Better Quantized LLMs
Yi-Lin Sung, Prateek Yadav, Jialu Li, Jaehong Yoon, Mohit Bansal
•
Mar 3, 2025
•
2
3
Optimisation Discriminative Directe : Votre Modèle Génératif Visuel Basé sur la Vraisemblance est Secrètement un Discriminateur de GAN
Direct Discriminative Optimization: Your Likelihood-Based Visual Generative Model is Secretly a GAN Discriminator
Kaiwen Zheng, Yongxin Chen, Huayu Chen, Guande He, Ming-Yu Liu, Jun Zhu, Qinsheng Zhang
•
Mar 3, 2025
•
3
2
PodAgent : Un cadre complet pour la génération de podcasts
PodAgent: A Comprehensive Framework for Podcast Generation
Yujia Xiao, Lei He, Haohan Guo, Fenglong Xie, Tan Lee
•
Mar 1, 2025
•
6
2