ChatPaper.ai
Ouvrir le menu
Accueil
Articles du Jour
arXiv
HuggingFace
Tarifs
Compte
Espace de travail
🇫🇷
Français
Loading...
•
•
•
•
•
•
•
•
•
•
Articles de Recherche en IA Quotidiens
Articles de recherche en IA sélectionnés quotidiennement avec traductions
February 11th, 2025
MetaChaîne : Un cadre entièrement automatisé et sans code pour les agents LLM
MetaChain: A Fully-Automated and Zero-Code Framework for LLM Agents
Jiabin Tang, Tianyu Fan, Chao Huang
•
Feb 9, 2025
•
16
2
Diffusion Vidéo Guidée par l'Histoire
History-Guided Video Diffusion
Kiwhan Song, Boyuan Chen, Max Simchowitz, Yilun Du, Russ Tedrake, Vincent Sitzmann
•
Feb 10, 2025
•
12
2
Steel-LLM : De zéro à Open Source - Un parcours personnel dans la construction d'un LLM centré sur le chinois
Steel-LLM:From Scratch to Open Source -- A Personal Journey in Building a Chinese-Centric LLM
Qingshui Gu, Shu Li, Tianyu Zheng, Zhaoxiang Zhang
•
Feb 10, 2025
•
4
2
APE : Génération plus rapide et prolongée de contexte augmenté via Encodage Parallèle Adaptatif
APE: Faster and Longer Context-Augmented Generation via Adaptive Parallel Encoding
Xinyu Yang, Tianqi Chen, Beidi Chen
•
Feb 8, 2025
•
6
4
La Malédiction de la Profondeur dans les Grands Modèles de Langage
The Curse of Depth in Large Language Models
Wenfang Sun, Xinyuan Song, Pengxiang Li, Lu Yin, Yefeng Zheng, Shiwei Liu
•
Feb 9, 2025
•
39
5
Accélération sans perte de modèles de langage volumineux avec rédaction hiérarchique basée sur la localité temporelle dans le décodage spéculatif
Lossless Acceleration of Large Language Models with Hierarchical Drafting based on Temporal Locality in Speculative Decoding
Sukmin Cho, Sangjin Choi, Taeho Hwang, Jeongyeon Seo, Soyeong Jeong, Huije Lee, Hoyun Song, Jong C. Park, Youngjin Kwon
•
Feb 8, 2025
•
18
3
CustomVideoX : Adaptation Dynamique Axée sur l'Attention de Référence 3D pour les Transformateurs de Diffusion Vidéo Personnalisée Sans Pré-entraînement
CustomVideoX: 3D Reference Attention Driven Dynamic Adaptation for Zero-Shot Customized Video Diffusion Transformers
D. She, Mushui Liu, Jingxuan Pang, Jin Wang, Zhen Yang, Wanggui He, Guanghao Zhang, Yi Wang, Qihan Huang, Haobin Tang, Yunlong Yu, Siming Fu
•
Feb 10, 2025
•
11
2
Est-ce que 1 milliard de LLM peut surpasser 405 milliards de LLM ? Repenser l'échelle de calcul optimale au moment des tests
Can 1B LLM Surpass 405B LLM? Rethinking Compute-Optimal Test-Time Scaling
Runze Liu, Junqi Gao, Jian Zhao, Kaiyan Zhang, Xiu Li, Biqing Qi, Wanli Ouyang, Bowen Zhou
•
Feb 10, 2025
•
151
6
Jakiro : Amélioration du décodage spéculatif avec des têtes multiples découplées via MoE
Jakiro: Boosting Speculative Decoding with Decoupled Multi-Head via MoE
Haiduo Huang, Fuwei Yang, Zhenhua Liu, Yixing Xu, Jinze Li, Yang Liu, Xuanwu Yin, Dong Li, Pengju Ren, Emad Barsoum
•
Feb 10, 2025
•
5
2
Vers une Formation à l'Échelle Internet pour les Agents
Towards Internet-Scale Training For Agents
Brandon Trabucco, Gunnar Sigurdsson, Robinson Piramuthu, Ruslan Salakhutdinov
•
Feb 10, 2025
•
8
2
Optimisation des préférences de légendes doubles pour les modèles de diffusion
Dual Caption Preference Optimization for Diffusion Models
Amir Saeidi, Yiran Luo, Agneet Chatterjee, Shamanthak Hegde, Bimsara Pathiraja, Yezhou Yang, Chitta Baral
•
Feb 9, 2025
•
9
2
LM2 : Modèles à Grande Mémoire
LM2: Large Memory Models
Jikun Kang, Wenqi Wu, Filippos Christianos, Alex J. Chan, Fraser Greenlee, George Thomas, Marvin Purtorab, Andy Toulis
•
Feb 9, 2025
•
30
7
DreamDPO : Aligner la génération de texte en 3D avec les préférences humaines via l'optimisation directe des préférences.
DreamDPO: Aligning Text-to-3D Generation with Human Preferences via Direct Preference Optimization
Zhenglin Zhou, Xiaobo Xia, Fan Ma, Hehe Fan, Yi Yang, Tat-Seng Chua
•
Feb 5, 2025
•
7
2
Exploration de la limite de la récompense de résultat pour l'apprentissage du raisonnement mathématique
Exploring the Limit of Outcome Reward for Learning Mathematical Reasoning
Chengqi Lyu, Songyang Gao, Yuzhe Gu, Wenwei Zhang, Jianfei Gao, Kuikun Liu, Ziyi Wang, Shuaibin Li, Qian Zhao, Haian Huang, Weihan Cao, Jiangning Liu, Hongwei Liu, Junnan Liu, Songyang Zhang, Dahua Lin, Kai Chen
•
Feb 10, 2025
•
61
6
Entraînement de modèles de langage pour la déduction sociale avec l'apprentissage par renforcement multi-agent.
Training Language Models for Social Deduction with Multi-Agent Reinforcement Learning
Bidipta Sarkar, Warren Xia, C. Karen Liu, Dorsa Sadigh
•
Feb 9, 2025
•
38
3
La Vie Cachée des Tokens : Réduire l'Hallucination des Grands Modèles Vision-Language via l'Orientation de l'Information Visuelle
The Hidden Life of Tokens: Reducing Hallucination of Large Vision-Language Models via Visual Information Steering
Zhuowei Li, Haizhou Shi, Yunhe Gao, Di Liu, Zhenting Wang, Yuxiao Chen, Ting Liu, Long Zhao, Hao Wang, Dimitris N. Metaxas
•
Feb 5, 2025
•
12
3
Efficient-vDiT : Transformateurs de Diffusion Vidéo Efficaces Avec Attention par Tuile
Efficient-vDiT: Efficient Video Diffusion Transformers With Attention Tile
Hangliang Ding, Dacheng Li, Runlong Su, Peiyuan Zhang, Zhijie Deng, Ion Stoica, Hao Zhang
•
Feb 10, 2025
•
10
2
ReasonFlux : Raisonnement LLM hiérarchique via la mise à l'échelle des modèles de pensée
ReasonFlux: Hierarchical LLM Reasoning via Scaling Thought Templates
Ling Yang, Zhaochen Yu, Bin Cui, Mengdi Wang
•
Feb 10, 2025
•
21
3
SynthDetoxM : Les LLM modernes sont des données de désintoxication parallèle à quelques tirs annotées.
SynthDetoxM: Modern LLMs are Few-Shot Parallel Detoxification Data Annotators
Daniil Moskovskiy, Nikita Sushko, Sergey Pletenev, Elena Tutubalina, Alexander Panchenko
•
Feb 10, 2025
•
90
2
Quantification Matryoshka
Matryoshka Quantization
Pranav Nair, Puranjay Datta, Jeff Dean, Prateek Jain, Aditya Kusupati
•
Feb 10, 2025
•
30
4
Show-o Turbo : Vers une compréhension et génération multimodales unifiées accélérées
Show-o Turbo: Towards Accelerated Unified Multimodal Understanding and Generation
Chenkai Xu, Xu Wang, Zhenyi Liao, Yishun Li, Tianqi Hou, Zhijie Deng
•
Feb 8, 2025
•
22
2
CODESIM : Génération de Code Multi-Agents et Résolution de Problèmes à travers une Planification et un Débogage Pilotés par la Simulation
CODESIM: Multi-Agent Code Generation and Problem Solving through Simulation-Driven Planning and Debugging
Md. Ashraful Islam, Mohammed Eunus Ali, Md Rizwan Parvez
•
Feb 8, 2025
•
23
3
EVEv2 : Baselines améliorées pour les modèles Vision-Language sans encodeur
EVEv2: Improved Baselines for Encoder-Free Vision-Language Models
Haiwen Diao, Xiaotong Li, Yufeng Cui, Yueze Wang, Haoge Deng, Ting Pan, Wenxuan Wang, Huchuan Lu, Xinlong Wang
•
Feb 10, 2025
•
12
2
Équipe rouge incarnée pour l'audit des modèles fondamentaux de robots
Embodied Red Teaming for Auditing Robotic Foundation Models
Sathwik Karnik, Zhang-Wei Hong, Nishant Abhangi, Yen-Chen Lin, Tsun-Hsuan Wang, Christophe Dupuy, Rahul Gupta, Pulkit Agrawal
•
Nov 27, 2024
•
2
2
Science interdite : Défi de l'IA à double usage et tests de refus scientifique
Forbidden Science: Dual-Use AI Challenge Benchmark and Scientific Refusal Tests
David Noever, Forrest McKee
•
Feb 8, 2025
•
1
2
Lumina-Video : Génération de vidéos efficace et flexible avec le modèle Multi-échelle Next-DiT
Lumina-Video: Efficient and Flexible Video Generation with Multi-scale Next-DiT
Dongyang Liu, Shicheng Li, Yutong Liu, Zhen Li, Kai Wang, Xinyue Li, Qi Qin, Yufei Liu, Yi Xin, Zhongyu Li, Bin Fu, Chenyang Si, Yuewen Cao, Conghui He, Ziwei Liu, Yu Qiao, Qibin Hou, Hongsheng Li, Peng Gao
•
Feb 10, 2025
•
14
2