ChatPaper.ai
Ouvrir le menu
Accueil
Articles du Jour
arXiv
HuggingFace
Tarifs
Compte
Espace de travail
🇫🇷
Français
Loading...
•
•
•
•
•
•
•
•
•
•
Articles de Recherche en IA Quotidiens
Articles de recherche en IA sélectionnés quotidiennement avec traductions
February 13th, 2025
DPO-Shift : Déplacement de la Distribution de l'Optimisation des Préférences Directes
DPO-Shift: Shifting the Distribution of Direct Preference Optimization
Xiliang Yang, Feng Jiang, Qianen Zhang, Lei Zhao, Xiao Li
•
Feb 11, 2025
•
15
2
Ignorez la pénalité de KL ! Stimuler l'exploration des jetons critiques pour améliorer le peaufinage RL.
Ignore the KL Penalty! Boosting Exploration on Critical Tokens to Enhance RL Fine-Tuning
Jean Vassoyan, Nathanaël Beau, Roman Plaud
•
Feb 10, 2025
•
18
2
Vers une génération augmentée de récupération fiable pour les grands modèles de langage : une enquête
Towards Trustworthy Retrieval Augmented Generation for Large Language Models: A Survey
Bo Ni, Zheyuan Liu, Leyao Wang, Yongjia Lei, Yuying Zhao, Xueqi Cheng, Qingkai Zeng, Luna Dong, Yinglong Xia, Krishnaram Kenthapadi, Ryan Rossi, Franck Dernoncourt, Md Mehrab Tanjim, Nesreen Ahmed, Xiaorui Liu, Wenqi Fan, Erik Blasch, Yu Wang, Meng Jiang, Tyler Derr
•
Feb 8, 2025
•
8
2
WorldGUI : Test dynamique pour l'automatisation complète de l'interface utilisateur graphique (GUI) de bureau
WorldGUI: Dynamic Testing for Comprehensive Desktop GUI Automation
Henry Hengyuan Zhao, Difei Gao, Mike Zheng Shou
•
Feb 12, 2025
•
27
4
TextAtlas5M : un ensemble de données à grande échelle pour la génération d'images de texte dense
TextAtlas5M: A Large-scale Dataset for Dense Text Image Generation
Alex Jinpeng Wang, Dongxing Mao, Jiawei Zhang, Weiming Han, Zhuobai Dong, Linjie Li, Yiqi Lin, Zhengyuan Yang, Libo Qin, Fuwei Zhang, Lijuan Wang, Min Li
•
Feb 11, 2025
•
45
2
LASP-2 : Repenser le parallélisme de séquence pour l'attention linéaire et son hybride
LASP-2: Rethinking Sequence Parallelism for Linear Attention and Its Hybrid
Weigao Sun, Disen Lan, Yiran Zhong, Xiaoye Qu, Yu Cheng
•
Feb 11, 2025
•
24
2
Light-A-Video : Éclairage de vidéos sans entraînement via Fusion de Lumière Progressive
Light-A-Video: Training-free Video Relighting via Progressive Light Fusion
Yujie Zhou, Jiazi Bu, Pengyang Ling, Pan Zhang, Tong Wu, Qidong Huang, Jinsong Li, Xiaoyi Dong, Yuhang Zang, Yuhang Cao, Anyi Rao, Jiaqi Wang, Li Niu
•
Feb 12, 2025
•
44
2
TransMLA : L'attention latente à têtes multiples est tout ce dont vous avez besoin
TransMLA: Multi-head Latent Attention Is All You Need
Fanxu Meng, Zengwei Yao, Muhan Zhang
•
Feb 11, 2025
•
49
9
Contrôleur PDE : LLM pour l'autoformalisation et le raisonnement des EDP
PDE-Controller: LLMs for Autoformalization and Reasoning of PDEs
Mauricio Soroco, Jialin Song, Mengzhou Xia, Kye Emond, Weiran Sun, Wuyang Chen
•
Feb 3, 2025
•
16
2
MetaSC : Optimisation de la spécification de sécurité au moment du test pour les modèles de langage
MetaSC: Test-Time Safety Specification Optimization for Language Models
Víctor Gallego
•
Feb 11, 2025
•
3
2
Fino1 : Sur la transférabilité des LLM améliorés par le raisonnement en finance
Fino1: On the Transferability of Reasoning Enhanced LLMs to Finance
Lingfei Qian, Weipeng Zhou, Yan Wang, Xueqing Peng, Jimin Huang, Qianqian Xie
•
Feb 12, 2025
•
56
5
SARChat-Bench-2M : un banc d'essai vision-langage multi-tâches pour l'interprétation d'images SAR
SARChat-Bench-2M: A Multi-Task Vision-Language Benchmark for SAR Image Interpretation
Zhiming Ma, Xiayang Xiao, Sihao Dong, Peidong Wang, HaiPeng Wang, Qingyun Pan
•
Feb 12, 2025
•
12
4
Modules LLM : Transfert de Connaissances d'un Modèle Large à un Modèle Réduit en Utilisant une Attention Croisée Améliorée
LLM Modules: Knowledge Transfer from a Large to a Small Model using Enhanced Cross-Attention
Konstantin Kolomeitsev
•
Feb 12, 2025
•
4
2
Lois d'échelle de distillation
Distillation Scaling Laws
Dan Busbridge, Amitis Shidani, Floris Weers, Jason Ramapuram, Etai Littwin, Russ Webb
•
Feb 12, 2025
•
48
4
Animer n'importe qui 2 : Animation d'images de personnages haute fidélité avec prise en compte de l'environnement
Animate Anyone 2: High-Fidelity Character Image Animation with Environment Affordance
Li Hu, Guangyuan Wang, Zhen Shen, Xin Gao, Dechao Meng, Lian Zhuo, Peng Zhang, Bang Zhang, Liefeng Bo
•
Feb 10, 2025
•
16
4
BenchMAX : une suite d'évaluation multilingue complète pour les grands modèles de langage.
BenchMAX: A Comprehensive Multilingual Evaluation Suite for Large Language Models
Xu Huang, Wenhao Zhu, Hanxu Hu, Conghui He, Lei Li, Shujian Huang, Fei Yuan
•
Feb 11, 2025
•
54
2
Médiateur : Fusion LLM efficace en mémoire avec moins de conflits de paramètres et routage basé sur l'incertitude
Mediator: Memory-efficient LLM Merging with Less Parameter Conflicts and Uncertainty Based Routing
Kunfeng Lai, Zhenheng Tang, Xinglin Pan, Peijie Dong, Xiang Liu, Haolan Chen, Li Shen, Bo Li, Xiaowen Chu
•
Feb 6, 2025
•
4
2
Prédiction du prochain bloc : Génération de vidéos via modélisation semi-autorégressive
Next Block Prediction: Video Generation via Semi-Autoregressive Modeling
Shuhuai Ren, Shuming Ma, Xu Sun, Furu Wei
•
Feb 11, 2025
•
9
2
CineMaster : Un cadre conscient de la 3D et contrôlable pour la génération de vidéos à partir de texte cinématographique
CineMaster: A 3D-Aware and Controllable Framework for Cinematic Text-to-Video Generation
Qinghe Wang, Yawen Luo, Xiaoyu Shi, Xu Jia, Huchuan Lu, Tianfan Xue, Xintao Wang, Pengfei Wan, Di Zhang, Kun Gai
•
Feb 12, 2025
•
43
2
NoLiMa : Évaluation du contexte long au-delà de la correspondance littérale
NoLiMa: Long-Context Evaluation Beyond Literal Matching
Ali Modarressi, Hanieh Deilamsalehy, Franck Dernoncourt, Trung Bui, Ryan A. Rossi, Seunghyun Yoon, Hinrich Schütze
•
Feb 7, 2025
•
15
2
Priorité de l'homéomorphisme pour le problème des faux positifs et négatifs en apprentissage de représentations denses contrastives d'images médicales
Homeomorphism Prior for False Positive and Negative Problem in Medical Image Dense Contrastive Representation Learning
Yuting He, Boyu Wang, Rongjun Ge, Yang Chen, Guanyu Yang, Shuo Li
•
Feb 7, 2025
•
0
2
Pré-entraînement LLM avec Concepts Continus
LLM Pretraining with Continuous Concepts
Jihoon Tack, Jack Lanchantin, Jane Yu, Andrew Cohen, Ilia Kulikov, Janice Lan, Shibo Hao, Yuandong Tian, Jason Weston, Xian Li
•
Feb 12, 2025
•
28
4