ChatPaper.aiChatPaper.ai
Accueil

arXiv

HuggingFace

TarifsCompteEspace de travail

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

Articles de Recherche en IA Quotidiens

Articles de recherche en IA sélectionnés quotidiennement avec traductions

DeepSeek-Coder-V2 : Franchir la barrière des modèles propriétaires en intelligence du code
DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code Intelligence

DeepSeek-AI, Qihao Zhu, Daya Guo, Zhihong Shao, Dejian Yang, Peiyi Wang, Runxin Xu, Y. Wu, Yukun Li, Huazuo Gao, Shirong Ma, Wangding Zeng, Xiao Bi, Zihui Gu, Hanwei Xu, Damai Dai, Kai Dong, Liyue Zhang, Yishi Piao, Zhibin Gou, Zhenda Xie, Zhewen Hao, Bingxuan Wang, Junxiao Song, Deli Chen, Xin Xie, Kang Guan, Yuxiang You, Aixin Liu, Qiushi Du, Wenjun Gao, Xuan Lu, Qinyu Chen, Yaohui Wang, Chengqi Deng, Jiashi Li, Chenggang Zhao, Chong Ruan, Fuli Luo, Wenfeng Liang•Jun 17, 2024•643

Depth Anywhere : Amélioration de l'estimation de la profondeur monoculaire 360° via la distillation de perspective et l'augmentation de données non étiquetées
Depth Anywhere: Enhancing 360 Monocular Depth Estimation via Perspective Distillation and Unlabeled Data Augmentation

Ning-Hsu Wang, Yu-Lun Liu•Jun 18, 2024•512

Amorçage des modèles de langage avec des récompenses implicites DPO
Bootstrapping Language Models with DPO Implicit Rewards

Changyu Chen, Zichen Liu, Chao Du, Tianyu Pang, Qian Liu, Arunesh Sinha, Pradeep Varakantham, Min Lin•Jun 14, 2024•411

TroL : Parcours des couches pour les grands modèles de langage et de vision
TroL: Traversal of Layers for Large Language and Vision Models

Byung-Kwan Lee, Sangyun Chung, Chae Won Kim, Beomchan Park, Yong Man Ro•Jun 18, 2024•362

ChatGLM : Une famille de grands modèles de langage, de GLM-130B à GLM-4 All Tools
ChatGLM: A Family of Large Language Models from GLM-130B to GLM-4 All Tools

Team GLM, Aohan Zeng, Bin Xu, Bowen Wang, Chenhui Zhang, Da Yin, Diego Rojas, Guanyu Feng, Hanlin Zhao, Hanyu Lai, Hao Yu, Hongning Wang, Jiadai Sun, Jiajie Zhang, Jiale Cheng, Jiayi Gui, Jie Tang, Jing Zhang, Juanzi Li, Lei Zhao, Lindong Wu, Lucen Zhong, Mingdao Liu, Minlie Huang, Peng Zhang, Qinkai Zheng, Rui Lu, Shuaiqi Duan, Shudan Zhang, Shulin Cao, Shuxun Yang, Weng Lam Tam, Wenyi Zhao, Xiao Liu, Xiao Xia, Xiaohan Zhang, Xiaotao Gu, Xin Lv, Xinghan Liu, Xinyi Liu, Xinyue Yang, Xixuan Song, Xunkai Zhang, Yifan An, Yifan Xu, Yilin Niu, Yuantao Yang, Yueyan Li, Yushi Bai, Yuxiao Dong, Zehan Qi, Zhaoyu Wang, Zhen Yang, Zhengxiao Du, Zhenyu Hou, Zihan Wang•Jun 18, 2024•332

VoCo-LLaMA : Vers la compression visuelle avec les grands modèles de langage
VoCo-LLaMA: Towards Vision Compression with Large Language Models

Xubing Ye, Yukang Gan, Xiaoke Huang, Yixiao Ge, Ying Shan, Yansong Tang•Jun 18, 2024•3210

AgileCoder : Agents collaboratifs dynamiques pour le développement logiciel basé sur la méthodologie Agile
AgileCoder: Dynamic Collaborative Agents for Software Development based on Agile Methodology

Minh Huynh Nguyen, Thang Phan Chau, Phong X. Nguyen, Nghi D. Q. Bui•Jun 16, 2024•282

Des RAGs aux paramètres riches : Exploration de la manière dont les modèles de langage exploitent les connaissances externes par rapport aux informations paramétriques pour les requêtes factuelles
From RAGs to rich parameters: Probing how language models utilize external knowledge over parametric information for factual queries

Hitesh Wadhwa, Rahul Seetharaman, Somyaa Aggarwal, Reshmi Ghosh, Samyadeep Basu, Soundararajan Srinivasan, Wenlong Zhao, Shreyas Chaudhari, Ehsan Aghazadeh•Jun 18, 2024•212

Apprendre au-delà de la réponse : Former des modèles de langage avec réflexion pour le raisonnement mathématique
Learn Beyond The Answer: Training Language Models with Reflection for Mathematical Reasoning

Zhihan Zhang, Zhenwen Liang, Wenhao Yu, Dian Yu, Mengzhao Jia, Dong Yu, Meng Jiang•Jun 17, 2024•191

SafeInfer : Alignement de sécurité adaptatif au contexte en temps de décodage pour les grands modèles de langage
SafeInfer: Context Adaptive Decoding Time Safety Alignment for Large Language Models

Somnath Banerjee, Soham Tripathy, Sayan Layek, Shanu Kumar, Animesh Mukherjee, Rima Hazra•Jun 18, 2024•163

RepLiQA : Un ensemble de données de questions-réponses pour évaluer les modèles de langage sur du contenu de référence inédit
RepLiQA: A Question-Answering Dataset for Benchmarking LLMs on Unseen Reference Content

Joao Monteiro, Pierre-Andre Noel, Etienne Marcotte, Sai Rajeswar, Valentina Zantedeschi, David Vazquez, Nicolas Chapados, Christopher Pal, Perouz Taslakian•Jun 17, 2024•161

Arithmétique de sécurité : Un cadre pour l'alignement de sécurité en phase de test des modèles de langage par le pilotage des paramètres et des activations
Safety Arithmetic: A Framework for Test-time Safety Alignment of Language Models by Steering Parameters and Activations

Rima Hazra, Sayan Layek, Somnath Banerjee, Soujanya Poria•Jun 17, 2024•164

La tokenisation à la peine : Le fléau de la tokenisation
Tokenization Falling Short: The Curse of Tokenization

Yekun Chai, Yewei Fang, Qiwei Peng, Xuhong Li•Jun 17, 2024•161

Évaluation des modèles de vision et de langage pour la compréhension multi-images : Perception, Connaissance, Raisonnement et Raisonnement à sauts multiples
Benchmarking Multi-Image Understanding in Vision and Language Models: Perception, Knowledge, Reasoning, and Multi-Hop Reasoning

Bingchen Zhao, Yongshuo Zong, Letian Zhang, Timothy Hospedales•Jun 18, 2024•155

OlympicArena : Évaluation des capacités de raisonnement cognitif multidisciplinaire pour l'intelligence artificielle superintelligente
OlympicArena: Benchmarking Multi-discipline Cognitive Reasoning for Superintelligent AI

Zhen Huang, Zengzhi Wang, Shijie Xia, Xuefeng Li, Haoyang Zou, Ruijie Xu, Run-Ze Fan, Lyumanshan Ye, Ethan Chern, Yixin Ye, Yikai Zhang, Yuqing Yang, Ting Wu, Binjie Wang, Shichao Sun, Yang Xiao, Yiyuan Li, Fan Zhou, Steffi Chern, Yiwei Qin, Yan Ma, Jiadi Su, Yixiu Liu, Yuxiang Zheng, Shaoting Zhang, Dahua Lin, Yu Qiao, Pengfei Liu•Jun 18, 2024•142

HumanSplat : Modélisation gaussienne généralisable d'humains à partir d'une seule image avec a priori structurels
HumanSplat: Generalizable Single-Image Human Gaussian Splatting with Structure Priors

Panwang Pan, Zhuo Su, Chenguo Lin, Zhen Fan, Yongjie Zhang, Zeming Li, Tingting Shen, Yadong Mu, Yebin Liu•Jun 18, 2024•121

Apprentissage par transfert à grande échelle pour les données tabulaires via le modélisation du langage
Large Scale Transfer Learning for Tabular Data via Language Modeling

Josh Gardner, Juan C. Perdomo, Ludwig Schmidt•Jun 17, 2024•91

Estimation des connaissances dans les grands modèles de langage sans générer un seul jeton
Estimating Knowledge in Large Language Models Without Generating a Single Token

Daniela Gottesman, Mor Geva•Jun 18, 2024•81

Les modèles de langage sont étonnamment fragiles face aux noms de médicaments dans les benchmarks biomédicaux.
Language Models are Surprisingly Fragile to Drug Names in Biomedical Benchmarks

Jack Gallifant, Shan Chen, Pedro Moreira, Nikolaj Munch, Mingye Gao, Jackson Pond, Leo Anthony Celi, Hugo Aerts, Thomas Hartvigsen, Danielle Bitterman•Jun 17, 2024•81

Tous les prompts ne se valent pas : élagage basé sur les prompts pour les modèles de diffusion texte-image
Not All Prompts Are Made Equal: Prompt-based Pruning of Text-to-Image Diffusion Models

Alireza Ganjdanesh, Reza Shirkavand, Shangqian Gao, Heng Huang•Jun 17, 2024•81

Mélange d'Échelles : Binarisation Adaptative par Token Économe en Mémoire pour les Grands Modèles de Langage
Mixture of Scales: Memory-Efficient Token-Adaptive Binarization for Large Language Models

Dongwon Jo, Taesu Kim, Yulhwa Kim, Jae-Joon Kim•Jun 18, 2024•71

BPO : Optimisation de l'apprentissage des préférences en ligne en respectant la proximité comportementale des LLM
BPO: Supercharging Online Preference Learning by Adhering to the Proximity of Behavior LLM

Wenda Xu, Jiachen Li, William Yang Wang, Lei Li•Jun 18, 2024•71

Des données crowdsourcées aux benchmarks de haute qualité : Arena-Hard et le pipeline BenchBuilder
From Crowdsourced Data to High-Quality Benchmarks: Arena-Hard and BenchBuilder Pipeline

Tianle Li, Wei-Lin Chiang, Evan Frick, Lisa Dunlap, Tianhao Wu, Banghua Zhu, Joseph E. Gonzalez, Ion Stoica•Jun 17, 2024•71

VIA : Un cadre d'adaptation vidéo spatiotemporelle pour l'édition globale et locale de vidéos
VIA: A Spatiotemporal Video Adaptation Framework for Global and Local Video Editing

Jing Gu, Yuwei Fang, Ivan Skorokhodov, Peter Wonka, Xinya Du, Sergey Tulyakov, Xin Eric Wang•Jun 18, 2024•51

Taxonomie de Prompting Hiérarchique : Un Cadre d'Évaluation Universel pour les Modèles de Langage à Grande Échelle
Hierarchical Prompting Taxonomy: A Universal Evaluation Framework for Large Language Models

Devichand Budagam, Sankalp KJ, Ashutosh Kumar, Vinija Jain, Aman Chadha•Jun 18, 2024•51

Attaques adverses sur les agents multimodaux
Adversarial Attacks on Multimodal Agents

Chen Henry Wu, Jing Yu Koh, Ruslan Salakhutdinov, Daniel Fried, Aditi Raghunathan•Jun 18, 2024•41

Diffusion Immiscible : Accélération de l'entraînement par diffusion grâce à l'assignation de bruit
Immiscible Diffusion: Accelerating Diffusion Training with Noise Assignment

Yiheng Li, Heyang Jiang, Akio Kodaira, Masayoshi Tomizuka, Kurt Keutzer, Chenfeng Xu•Jun 18, 2024•41

JEN-1 DreamStyler : Apprentissage de concepts musicaux personnalisés via l'ajustement de paramètres pivots
JEN-1 DreamStyler: Customized Musical Concept Learning via Pivotal Parameters Tuning

Boyu Chen, Peike Li, Yao Yao, Alex Wang•Jun 18, 2024•42

Super(ficiel)-alignement : Les modèles puissants peuvent tromper les modèles faibles dans la généralisation de faible à fort
Super(ficial)-alignment: Strong Models May Deceive Weak Models in Weak-to-Strong Generalization

Wenkai Yang, Shiqi Shen, Guangyao Shen, Zhi Gong, Yankai Lin•Jun 17, 2024•42

Mélange de Sous-espaces dans l'Adaptation à Faible Rang
Mixture-of-Subspaces in Low-Rank Adaptation

Taiqiang Wu, Jiahao Wang, Zhe Zhao, Ngai Wong•Jun 16, 2024•31