ChatPaper.ai
Ouvrir le menu
Accueil
Articles du Jour
arXiv
HuggingFace
Tarifs
Compte
Espace de travail
🇫🇷
Français
Loading...
•
•
•
•
•
•
•
•
•
•
Articles de Recherche en IA Quotidiens
Articles de recherche en IA sélectionnés quotidiennement avec traductions
February 26th, 2025
SWE-RL : Amélioration du raisonnement des LLM via l'apprentissage par renforcement sur l'évolution ouverte des logiciels
SWE-RL: Advancing LLM Reasoning via Reinforcement Learning on Open Software Evolution
Yuxiang Wei, Olivier Duchenne, Jade Copet, Quentin Carbonneaux, Lingming Zhang, Daniel Fried, Gabriel Synnaeve, Rishabh Singh, Sida I. Wang
•
Feb 25, 2025
•
74
5
OmniAlign-V : Vers un alignement amélioré des MLLM avec les préférences humaines
OmniAlign-V: Towards Enhanced Alignment of MLLMs with Human Preference
Xiangyu Zhao, Shengyuan Ding, Zicheng Zhang, Haian Huang, Maosong Cao, Weiyun Wang, Jiaqi Wang, Xinyu Fang, Wenhai Wang, Guangtao Zhai, Haodong Duan, Hua Yang, Kai Chen
•
Feb 25, 2025
•
73
2
SpargeAttn : Une Attention Sparse Précise Accélérant l'Inférence de Tout Modèle
SpargeAttn: Accurate Sparse Attention Accelerating Any Model Inference
Jintao Zhang, Chendong Xiang, Haofeng Huang, Jia Wei, Haocheng Xi, Jun Zhu, Jianfei Chen
•
Feb 25, 2025
•
57
2
ART : Transformateur de Région Anonyme pour la Génération d'Images Transparentes Multi-Couches Variables
ART: Anonymous Region Transformer for Variable Multi-Layer Transparent Image Generation
Yifan Pu, Yiming Zhao, Zhicong Tang, Ruihong Yin, Haoxing Ye, Yuhui Yuan, Dong Chen, Jianmin Bao, Sirui Zhang, Yanbin Wang, Lin Liang, Lijuan Wang, Ji Li, Xiu Li, Zhouhui Lian, Gao Huang, Baining Guo
•
Feb 25, 2025
•
36
4
KV-Edit : Édition d'images sans entraînement pour une préservation précise de l'arrière-plan
KV-Edit: Training-Free Image Editing for Precise Background Preservation
Tianrui Zhu, Shiyi Zhang, Jiawei Shao, Yansong Tang
•
Feb 24, 2025
•
36
3
Révéler l'évolutivité des performances en aval des LLM : une perspective basée sur le clustering
Unveiling Downstream Performance Scaling of LLMs: A Clustering-Based Perspective
Chengyin Xu, Kaiyuan Chen, Xiao Li, Ke Shen, Chenggang Li
•
Feb 24, 2025
•
20
2
Curie : Vers une Expérimentation Scientifique Rigoureuse et Automatisée avec des Agents d'IA
Curie: Toward Rigorous and Automated Scientific Experimentation with AI Agents
Patrick Tser Jern Kon, Jiachen Liu, Qiuyi Ding, Yiming Qiu, Zhenning Yang, Yibo Huang, Jayanth Srinivasa, Myungjin Lee, Mosharaf Chowdhury, Ang Chen
•
Feb 22, 2025
•
19
5
K-LoRA : Vers une fusion sans entraînement de sujets et de styles LoRA quelconques
K-LoRA: Unlocking Training-Free Fusion of Any Subject and Style LoRAs
Ziheng Ouyang, Zhen Li, Qibin Hou
•
Feb 25, 2025
•
15
2
Introduction du jeton de perception visuelle dans les modèles de langage multimodaux de grande taille
Introducing Visual Perception Token into Multimodal Large Language Model
Runpeng Yu, Xinyin Ma, Xinchao Wang
•
Feb 24, 2025
•
15
2
Découplage Échelle-Distribution : Permettre un Entraînement Stable et Efficace des Modèles de Langage à Grande Échelle
Scale-Distribution Decoupling: Enabling Stable and Effective Training of Large Language Models
Ya Wang, Zhijian Zhuo, Yutao Zeng, Xun Zhou, Jian Yang, Xiaoqing Li
•
Feb 21, 2025
•
13
2
WebGames : Mettre à l'épreuve les agents d'intelligence artificielle généralistes pour la navigation web
WebGames: Challenging General-Purpose Web-Browsing AI Agents
George Thomas, Alex J. Chan, Jikun Kang, Wenqi Wu, Filippos Christianos, Fraser Greenlee, Andy Toulis, Marvin Purtorab
•
Feb 25, 2025
•
12
2
L'Hypothèse de la Loterie des LLM, Repenser les Capacités que la Compression des LLM Devrait Préserver ?
The Lottery LLM Hypothesis, Rethinking What Abilities Should LLM Compression Preserve?
Zhenheng Tang, Xiang Liu, Qian Wang, Peijie Dong, Bingsheng He, Xiaowen Chu, Bo Li
•
Feb 24, 2025
•
8
2
Les MLLM savent où regarder : Perception sans entraînement de petits détails visuels avec des MLLM multimodaux.
MLLMs Know Where to Look: Training-free Perception of Small Visual Details with Multimodal LLMs
Jiarui Zhang, Mahyar Khayatkhoei, Prateek Chhikara, Filip Ilievski
•
Feb 24, 2025
•
7
2
Prompt-to-Classement
Prompt-to-Leaderboard
Evan Frick, Connor Chen, Joseph Tennyson, Tianle Li, Wei-Lin Chiang, Anastasios N. Angelopoulos, Ion Stoica
•
Feb 20, 2025
•
7
3
Trouver le juste milieu : Construction des données de préférence pour l'optimisation à grande échelle
Finding the Sweet Spot: Preference Data Construction for Scaling Preference Optimization
Yao Xiao, Hai Ye, Linyao Chen, Hwee Tou Ng, Lidong Bing, Xiaoli Li, Roy Ka-wei Lee
•
Feb 24, 2025
•
6
2
LDGen : Amélioration de la synthèse texte-image via une représentation linguistique pilotée par un grand modèle de langage
LDGen: Enhancing Text-to-Image Synthesis via Large Language Model-Driven Language Representation
Pengzhi Li, Pengfei Yu, Zide Liu, Wei He, Xuhao Pan, Xudong Rao, Tao Wei, Wei Chen
•
Feb 25, 2025
•
5
2
AAD-LLM : Compréhension de scènes auditives pilotée par l'attention neuronale
AAD-LLM: Neural Attention-Driven Auditory Scene Understanding
Xilin Jiang, Sukru Samet Dindar, Vishal Choudhari, Stephan Bickel, Ashesh Mehta, Guy M McKhann, Adeen Flinker, Daniel Friedman, Nima Mesgarani
•
Feb 24, 2025
•
5
3
Un Aperçu des Grands Modèles de Langage pour les Statisticiens
An Overview of Large Language Models for Statisticians
Wenlong Ji, Weizhe Yuan, Emily Getzen, Kyunghyun Cho, Michael I. Jordan, Song Mei, Jason E Weston, Weijie J. Su, Jing Xu, Linjun Zhang
•
Feb 25, 2025
•
4
2
LaTIM : Mesure des interactions latentes entre tokens dans les modèles Mamba
LaTIM: Measuring Latent Token-to-Token Interactions in Mamba Models
Hugo Pitorro, Marcos Treviso
•
Feb 21, 2025
•
4
2
Shakti-VLM : Modèles vision-langage évolutifs pour l'IA d'entreprise
Shakti-VLMs: Scalable Vision-Language Models for Enterprise AI
Syed Abdul Gaffar Shakhadri, Kruthika KR, Kartik Basavaraj Angadi
•
Feb 24, 2025
•
3
2
WiCkeD : Une méthode simple pour rendre les benchmarks à choix multiples plus difficiles
WiCkeD: A Simple Method to Make Multiple Choice Benchmarks More Challenging
Ahmed Elhady, Eneko Agirre, Mikel Artetxe
•
Feb 25, 2025
•
2
2
Mise à l'échelle de la pré-entraînement LLM avec un programme de vocabulaire.
Scaling LLM Pre-training with Vocabulary Curriculum
Fangyuan Yu
•
Feb 25, 2025
•
1
2