ChatPaper.ai
Ouvrir le menu
Accueil
Articles du Jour
arXiv
HuggingFace
Tarifs
Compte
Espace de travail
🇫🇷
Français
Loading...
•
•
•
•
•
•
•
•
•
•
Articles de Recherche en IA Quotidiens
Articles de recherche en IA sélectionnés quotidiennement avec traductions
June 28th, 2024
OMG-LLaVA : Relier le raisonnement et la compréhension au niveau de l'image, de l'objet et du pixel
OMG-LLaVA: Bridging Image-level, Object-level, Pixel-level Reasoning and Understanding
Tao Zhang, Xiangtai Li, Hao Fei, Haobo Yuan, Shengqiong Wu, Shunping Ji, Chen Change Loy, Shuicheng Yan
•
Jun 27, 2024
•
55
10
Step-DPO : Optimisation pas à pas des préférences pour le raisonnement en chaîne longue des modèles de langage
Step-DPO: Step-wise Preference Optimization for Long-chain Reasoning of LLMs
Xin Lai, Zhuotao Tian, Yukang Chen, Senqiao Yang, Xiangru Peng, Jiaya Jia
•
Jun 26, 2024
•
43
2
MUMU : Amorçage de la génération d'images multimodales à partir de données texte-à-image
MUMU: Bootstrapping Multimodal Image Generation from Text-to-Image Data
William Berman, Alexander Peysakhovich
•
Jun 26, 2024
•
35
3
Simulation de l'éducation en classe avec des agents assistés par des modèles de langage (LLM)
Simulating Classroom Education with LLM-Empowered Agents
Zheyuan Zhang, Daniel Zhang-Li, Jifan Yu, Linlu Gong, Jinchang Zhou, Zhiyuan Liu, Lei Hou, Juanzi Li
•
Jun 27, 2024
•
32
9
SeaKR : Récupération de connaissances auto-consciente pour une génération augmentée par récupération adaptative
SeaKR: Self-aware Knowledge Retrieval for Adaptive Retrieval Augmented Generation
Zijun Yao, Weijian Qi, Liangming Pan, Shulin Cao, Linmei Hu, Weichuan Liu, Lei Hou, Juanzi Li
•
Jun 27, 2024
•
31
1
Alignement des Préférences Enseignant-Élève pour la Génération de Données d'Entraînement Personnalisées
Aligning Teacher with Student Preferences for Tailored Training Data Generation
Yantao Liu, Zhao Zhang, Zijun Yao, Shulin Cao, Lei Hou, Juanzi Li
•
Jun 27, 2024
•
26
2
LiveBench : Un benchmark exigeant et sans contamination pour les modèles de langage
LiveBench: A Challenging, Contamination-Free LLM Benchmark
Colin White, Samuel Dooley, Manley Roberts, Arka Pal, Ben Feuer, Siddhartha Jain, Ravid Shwartz-Ziv, Neel Jain, Khalid Saifullah, Siddartha Naidu, Chinmay Hegde, Yann LeCun, Tom Goldstein, Willie Neiswanger, Micah Goldblum
•
Jun 27, 2024
•
23
3
Les grands modèles de langage peuvent-ils apprendre en enseignant ? Une étude préliminaire
Can LLMs Learn by Teaching? A Preliminary Study
Xuefei Ning, Zifu Wang, Shiyao Li, Zinan Lin, Peiran Yao, Tianyu Fu, Matthew B. Blaschko, Guohao Dai, Huazhong Yang, Yu Wang
•
Jun 20, 2024
•
20
2
Récupération de la Taille du Jeu de Données à partir des Poids LoRA
Dataset Size Recovery from LoRA Weights
Mohammad Salama, Jonathan Kahana, Eliahu Horwitz, Yedid Hoshen
•
Jun 27, 2024
•
19
4
MoA : Mélange d'Attention Sparse pour la Compression Automatique de Modèles de Langage à Grande Échelle
MoA: Mixture of Sparse Attention for Automatic Large Language Model Compression
Tianyu Fu, Haofeng Huang, Xuefei Ning, Genghan Zhang, Boju Chen, Tianqi Wu, Hongyi Wang, Zixiao Huang, Shiyao Li, Shengen Yan, Guohao Dai, Huazhong Yang, Yu Wang
•
Jun 21, 2024
•
15
4
La programmation par l'exemple est-elle résolue par les LLM ?
Is Programming by Example solved by LLMs?
Wen-Ding Li, Kevin Ellis
•
Jun 12, 2024
•
13
1
T-FREE : Modèles de langage génératifs sans tokenizer via des représentations éparses pour des embeddings économes en mémoire
T-FREE: Tokenizer-Free Generative LLMs via Sparse Representations for Memory-Efficient Embeddings
Björn Deiseroth, Manuel Brack, Patrick Schramowski, Kristian Kersting, Samuel Weinbach
•
Jun 27, 2024
•
11
5
AUTOHALLUSION : Génération automatique de benchmarks d'hallucinations pour les modèles vision-langage
AUTOHALLUSION: Automatic Generation of Hallucination Benchmarks for Vision-Language Models
Xiyang Wu, Tianrui Guan, Dianqi Li, Shuaiyi Huang, Xiaoyu Liu, Xijun Wang, Ruiqi Xian, Abhinav Shrivastava, Furong Huang, Jordan Lee Boyd-Graber, Tianyi Zhou, Dinesh Manocha
•
Jun 16, 2024
•
11
4
Lire partout où l'on pointe : Lecture de l'interface graphique avec prise en compte de la mise en page grâce à l'ancrage Tree-of-Lens
Read Anywhere Pointed: Layout-aware GUI Screen Reading with Tree-of-Lens Grounding
Yue Fan, Lei Ding, Ching-Chen Kuo, Shan Jiang, Yang Zhao, Xinze Guan, Jie Yang, Yi Zhang, Xin Eric Wang
•
Jun 27, 2024
•
10
2
Comprendre les besoins des LLM : Alignement des préférences doubles pour la génération augmentée par la recherche
Understand What LLM Needs: Dual Preference Alignment for Retrieval-Augmented Generation
Guanting Dong, Yutao Zhu, Chenghao Zhang, Zechen Wang, Zhicheng Dou, Ji-Rong Wen
•
Jun 26, 2024
•
6
5
ArzEn-LLM : Traduction et reconnaissance vocale en arabe égyptien-anglais avec alternance codique utilisant des modèles de langage de grande taille
ArzEn-LLM: Code-Switched Egyptian Arabic-English Translation and Speech Recognition Using LLMs
Ahmed Heakl, Youssef Zaghloul, Mennatullah Ali, Rania Hossam, Walid Gomaa
•
Jun 26, 2024
•
5
5
ResumeAtlas : Réexamen de la classification de CV avec des jeux de données à grande échelle et des modèles de langage massifs
ResumeAtlas: Revisiting Resume Classification with Large-Scale Datasets and Large Language Models
Ahmed Heakl, Youssef Mohamed, Noran Mohamed, Ali Sharkaway, Ahmed Zaky
•
Jun 26, 2024
•
3
3
Évaluation des Représentations des États Mentaux dans les Modèles de Langage
Benchmarking Mental State Representations in Language Models
Matteo Bortoletto, Constantin Ruhdorfer, Lei Shi, Andreas Bulling
•
Jun 25, 2024
•
3
1