ChatPaper.ai
Ouvrir le menu
Accueil
Articles du Jour
arXiv
HuggingFace
Tarifs
Compte
Espace de travail
🇫🇷
Français
Loading...
•
•
•
•
•
•
•
•
•
•
Articles de Recherche en IA Quotidiens
Articles de recherche en IA sélectionnés quotidiennement avec traductions
June 25th, 2024
Cambrian-1 : Une exploration entièrement ouverte et centrée sur la vision des modèles de langage multimodaux
Cambrian-1: A Fully Open, Vision-Centric Exploration of Multimodal LLMs
Shengbang Tong, Ellis Brown, Penghao Wu, Sanghyun Woo, Manoj Middepogu, Sai Charitha Akula, Jihan Yang, Shusheng Yang, Adithya Iyer, Xichen Pan, Austin Wang, Rob Fergus, Yann LeCun, Saining Xie
•
Jun 24, 2024
•
61
4
DreamBench++ : Un benchmark aligné sur l'humain pour la génération d'images personnalisées
DreamBench++: A Human-Aligned Benchmark for Personalized Image Generation
Yuang Peng, Yuxin Cui, Haomiao Tang, Zekun Qi, Runpei Dong, Jing Bai, Chunrui Han, Zheng Ge, Xiangyu Zhang, Shu-Tao Xia
•
Jun 24, 2024
•
57
4
BigCodeBench : Évaluation de la génération de code avec des appels de fonctions variés et des instructions complexes
BigCodeBench: Benchmarking Code Generation with Diverse Function Calls and Complex Instructions
Terry Yue Zhuo, Minh Chien Vu, Jenny Chim, Han Hu, Wenhao Yu, Ratnadira Widyasari, Imam Nur Bani Yusuf, Haolan Zhan, Junda He, Indraneil Paul, Simon Brunner, Chen Gong, Thong Hoang, Armel Randy Zebaze, Xiaoheng Hong, Wen-Ding Li, Jean Kaddour, Ming Xu, Zhihan Zhang, Prateek Yadav, Naman Jain, Alex Gu, Zhoujun Cheng, Jiawei Liu, Qian Liu, Zijian Wang, David Lo, Binyuan Hui, Niklas Muennighoff, Daniel Fried, Xiaoning Du, Harm de Vries, Leandro Von Werra
•
Jun 22, 2024
•
47
8
Évaluation de D-MERIT de l'annotation partielle sur la recherche d'information
Evaluating D-MERIT of Partial-annotation on Information Retrieval
Royi Rassin, Yaron Fairstein, Oren Kalinsky, Guy Kushilevitz, Nachshon Cohen, Alexander Libov, Yoav Goldberg
•
Jun 23, 2024
•
36
2
Transfert de contexte long du langage à la vision
Long Context Transfer from Language to Vision
Peiyuan Zhang, Kaichen Zhang, Bo Li, Guangtao Zeng, Jingkang Yang, Yuanhan Zhang, Ziyue Wang, Haoran Tan, Chunyuan Li, Ziwei Liu
•
Jun 24, 2024
•
34
2
Video-Infinity : Génération distribuée de vidéos longues
Video-Infinity: Distributed Long Video Generation
Zhenxiong Tan, Xingyi Yang, Songhua Liu, Xinchao Wang
•
Jun 24, 2024
•
30
2
VideoHallucer : Évaluation des hallucinations intrinsèques et extrinsèques dans les grands modèles vidéo-texte
VideoHallucer: Evaluating Intrinsic and Extrinsic Hallucinations in Large Video-Language Models
Yuxuan Wang, Yueqian Wang, Dongyan Zhao, Cihang Xie, Zilong Zheng
•
Jun 24, 2024
•
27
2
WARP : Sur les avantages des politiques récompensées par moyenne pondérée
WARP: On the Benefits of Weight Averaged Rewarded Policies
Alexandre Ramé, Johan Ferret, Nino Vieillard, Robert Dadashi, Léonard Hussenot, Pierre-Louis Cedoz, Pier Giuseppe Sessa, Sertan Girgin, Arthur Douillard, Olivier Bachem
•
Jun 24, 2024
•
23
1
Lois d'échelle pour les modèles de langage à complexité linéaire
Scaling Laws for Linear Complexity Language Models
Xuyang Shen, Dong Li, Ruitao Leng, Zhen Qin, Weigao Sun, Yiran Zhong
•
Jun 24, 2024
•
23
4
Vers une inférence rapide des LLM multilingues : décodage spéculatif et modèles rédacteurs spécialisés
Towards Fast Multilingual LLM Inference: Speculative Decoding and Specialized Drafters
Euiin Yi, Taehyeon Kim, Hongseok Jeung, Du-Seong Chang, Se-Young Yun
•
Jun 24, 2024
•
20
3
Pré-entraînement continu efficace par atténuation de l'écart de stabilité
Efficient Continual Pre-training by Mitigating the Stability Gap
Yiduo Guo, Jie Fu, Huishuai Zhang, Dongyan Zhao, Yikang Shen
•
Jun 21, 2024
•
20
1
Sparser est plus rapide et moins c'est plus : une attention parcimonieuse efficace pour les Transformers à longue portée
Sparser is Faster and Less is More: Efficient Sparse Attention for Long-Range Transformers
Chao Lou, Zixia Jia, Zilong Zheng, Kewei Tu
•
Jun 24, 2024
•
19
1
Sondes d'entropie sémantique : Détection robuste et économique des hallucinations dans les grands modèles de langage
Semantic Entropy Probes: Robust and Cheap Hallucination Detection in LLMs
Jannik Kossen, Jiatong Han, Muhammed Razzak, Lisa Schut, Shreshth Malik, Yarin Gal
•
Jun 22, 2024
•
14
1
Au-delà du jeu tour par tour : permettre des conversations en temps réel avec des modèles duplex
Beyond the Turn-Based Game: Enabling Real-Time Conversations with Duplex Models
Xinrong Zhang, Yingfa Chen, Shengding Hu, Xu Han, Zihang Xu, Yuanwei Xu, Weilin Zhao, Maosong Sun, Zhiyuan Liu
•
Jun 22, 2024
•
14
2
L'ajustement des préférences pour l'atténuation de la toxicité se généralise à travers les langues
Preference Tuning For Toxicity Mitigation Generalizes Across Languages
Xiaochen Li, Zheng-Xin Yong, Stephen H. Bach
•
Jun 23, 2024
•
11
1
AutoDetect : Vers un cadre unifié pour la détection automatisée des faiblesses dans les grands modèles de langage
AutoDetect: Towards a Unified Framework for Automated Weakness Detection in Large Language Models
Jiale Cheng, Yida Lu, Xiaotao Gu, Pei Ke, Xiao Liu, Yuxiao Dong, Hongning Wang, Jie Tang, Minlie Huang
•
Jun 24, 2024
•
10
2
Neurones de régulation de la confiance dans les modèles de langage
Confidence Regulation Neurons in Language Models
Alessandro Stolfo, Ben Wu, Wes Gurnee, Yonatan Belinkov, Xingyi Song, Mrinmaya Sachan, Neel Nanda
•
Jun 24, 2024
•
10
1
Combien de paramètres faut-il pour changer une ampoule ? Évaluer les performances dans les jeux conversationnels en auto-joueur en fonction des caractéristiques du modèle
How Many Parameters Does it Take to Change a Light Bulb? Evaluating Performance in Self-Play of Conversational Games as a Function of Model Characteristics
Nidhir Bhavsar, Jonathan Jordan, Sherzod Hakimov, David Schlangen
•
Jun 20, 2024
•
9
1
ClotheDreamer : Génération de vêtements guidée par texte avec des gaussiennes 3D
ClotheDreamer: Text-Guided Garment Generation with 3D Gaussians
Yufei Liu, Junshu Tang, Chu Zheng, Shijie Zhang, Jinkun Hao, Junwei Zhu, Dongjin Huang
•
Jun 24, 2024
•
7
1
Trouvé au milieu : Calibrer le biais d'attention positionnelle améliore l'utilisation des contextes longs
Found in the Middle: Calibrating Positional Attention Bias Improves Long Context Utilization
Cheng-Yu Hsieh, Yung-Sung Chuang, Chun-Liang Li, Zifeng Wang, Long T. Le, Abhishek Kumar, James Glass, Alexander Ratner, Chen-Yu Lee, Ranjay Krishna, Tomas Pfister
•
Jun 23, 2024
•
6
1
IRASim : Apprentissage de simulateurs d'actions interactives pour robots réels
IRASim: Learning Interactive Real-Robot Action Simulators
Fangqi Zhu, Hongtao Wu, Song Guo, Yuxiao Liu, Chilam Cheang, Tao Kong
•
Jun 20, 2024
•
6
1
video-SALMONN : Modèles de langage massifs audio-visuels améliorés par la parole
video-SALMONN: Speech-Enhanced Audio-Visual Large Language Models
Guangzhi Sun, Wenyi Yu, Changli Tang, Xianzhao Chen, Tian Tan, Wei Li, Lu Lu, Zejun Ma, Yuxuan Wang, Chao Zhang
•
Jun 22, 2024
•
5
1
Le Few-shot peut-il fonctionner dans un contexte long ? Recycler le contexte pour générer des démonstrations
Can Few-shot Work in Long-Context? Recycling the Context to Generate Demonstrations
Arie Cattan, Alon Jacovi, Alex Fabrikant, Jonathan Herzig, Roee Aharoni, Hannah Rashkin, Dror Marcus, Avinatan Hassidim, Yossi Matias, Idan Szpektor, Avi Caciularu
•
Jun 19, 2024
•
5
1
Distillation de Score Répulsif pour un Échantillonnage Diversifié des Modèles de Diffusion
Repulsive Score Distillation for Diverse Sampling of Diffusion Models
Nicolas Zilberstein, Morteza Mardani, Santiago Segarra
•
Jun 24, 2024
•
4
2
Classement des médailles OlympicArena : Quelle est l'IA la plus intelligente à ce jour ?
OlympicArena Medal Ranks: Who Is the Most Intelligent AI So Far?
Zhen Huang, Zengzhi Wang, Shijie Xia, Pengfei Liu
•
Jun 24, 2024
•
2
2