ChatPaper.ai
Ouvrir le menu
Accueil
Articles du Jour
arXiv
HuggingFace
Tarifs
Compte
Espace de travail
🇫🇷
Français
Loading...
•
•
•
•
•
•
•
•
•
•
Articles de Recherche en IA Quotidiens
Articles de recherche en IA sélectionnés quotidiennement avec traductions
August 29th, 2024
Stratégie d'équilibrage de charge sans perte de perte auxiliaire pour Mélange d'Experts
Auxiliary-Loss-Free Load Balancing Strategy for Mixture-of-Experts
Lean Wang, Huazuo Gao, Chenggang Zhao, Xu Sun, Damai Dai
•
Aug 28, 2024
•
12
3
Dauphin : Le contexte long en tant que nouvelle modalité pour des modèles de langage sur appareil économes en énergie
Dolphin: Long Context as a New Modality for Energy-Efficient On-Device Language Models
Wei Chen, Zhiyuan Li, Shuo Xin, Yihao Wang
•
Aug 28, 2024
•
43
4
Eagle : Exploration de l'espace de conception pour les LLM multimodaux avec un mélange d'encodeurs
Eagle: Exploring The Design Space for Multimodal LLMs with Mixture of Encoders
Min Shi, Fuxiao Liu, Shihao Wang, Shijia Liao, Subhashree Radhakrishnan, De-An Huang, Hongxu Yin, Karan Sapra, Yaser Yacoob, Humphrey Shi, Bryan Catanzaro, Andrew Tao, Jan Kautz, Zhiding Yu, Guilin Liu
•
Aug 28, 2024
•
88
3
La distribution du retour en arrière crée une trajectoire de convergence plus rapide pour la distillation de diffusion en une étape.
Distribution Backtracking Builds A Faster Convergence Trajectory for One-step Diffusion Distillation
Shengyuan Zhang, Ling Yang, Zejian Li, An Zhao, Chenye Meng, Changyuan Yang, Guang Yang, Zhiyuan Yang, Lingyun Sun
•
Aug 28, 2024
•
16
2
Navigateur de connaissances : Cadre de navigation guidée par LLM pour la recherche exploratoire dans la littérature scientifique
Knowledge Navigator: LLM-guided Browsing Framework for Exploratory Search in Scientific Literature
Uri Katz, Mosh Levy, Yoav Goldberg
•
Aug 28, 2024
•
13
4
Exploiter la connaissance ouverte pour faire progresser l'expertise des tâches dans les grands modèles de langage.
Leveraging Open Knowledge for Advancing Task Expertise in Large Language Models
Yuncheng Yang, Yulei Qin, Tong Wu, Zihan Xu, Gang Li, Pengcheng Guo, Hang Shao, Yucheng Shi, Ke Li, Xing Sun, Jie Yang, Yun Gu
•
Aug 28, 2024
•
20
4
TEDRA : Édition basée sur le texte d'acteurs dynamiques et photoréalistes
TEDRA: Text-based Editing of Dynamic and Photoreal Actors
Basavaraj Sunagad, Heming Zhu, Mohit Mendiratta, Adam Kortylewski, Christian Theobalt, Marc Habermann
•
Aug 28, 2024
•
4
2
Apprentissage par imitation en contexte via la prédiction du jeton suivant
In-Context Imitation Learning via Next-Token Prediction
Letian Fu, Huang Huang, Gaurav Datta, Lawrence Yunliang Chen, William Chung-Ho Panitch, Fangchen Liu, Hui Li, Ken Goldberg
•
Aug 28, 2024
•
10
3
LLaVA-MoD : Réduction de la taille de LLaVA via la distillation des connaissances MoE
LLaVA-MoD: Making LLaVA Tiny via MoE Knowledge Distillation
Fangxun Shu, Yue Liao, Le Zhuo, Chenning Xu, Guanghao Zhang, Haonan Shi, Long Chen, Tao Zhong, Wanggui He, Siming Fu, Haoyuan Li, Bolin Li, Zhelun Yu, Si Liu, Hongsheng Li, Hao Jiang
•
Aug 28, 2024
•
22
2
Ordonnancement efficace de LLM par apprentissage pour le classement
Efficient LLM Scheduling by Learning to Rank
Yichao Fu, Siqi Zhu, Runlong Su, Aurick Qiao, Ion Stoica, Hao Zhang
•
Aug 28, 2024
•
21
2
Vers une modélisation réaliste basée sur des exemples via l'assemblage gaussien en 3D
Towards Realistic Example-based Modeling via 3D Gaussian Stitching
Xinyu Gao, Ziyi Yang, Bingchen Gong, Xiaoguang Han, Sipeng Yang, Xiaogang Jin
•
Aug 28, 2024
•
8
3
BaichuanSEED : Partager le potentiel de la collecte extensive de données et de la déduplication en introduisant une ligne de base compétitive basée sur un grand modèle de langue.
BaichuanSEED: Sharing the Potential of ExtensivE Data Collection and Deduplication by Introducing a Competitive Large Language Model Baseline
Guosheng Dong, Da Pan, Yiding Sun, Shusen Zhang, Zheng Liang, Xin Wu, Yanjun Shen, Fan Yang, Haoze Sun, Tianpeng Li, Mingan Lin, Jianhua Xu, Yufan Zhang, Xiaonan Nie, Lei Su, Bingning Wang, Wentao Zhang, Jiaxin Mao, Zenan Zhou, Weipeng Chen
•
Aug 27, 2024
•
55
4
ReMamba : Équiper Mamba d'une Modélisation Efficace de Longues Séquences
ReMamba: Equip Mamba with Effective Long-Sequence Modeling
Danlong Yuan, Jiahao Liu, Bei Li, Huishuai Zhang, Jingang Wang, Xunliang Cai, Dongyan Zhao
•
Aug 28, 2024
•
12
2