ChatPaper.ai
Ouvrir le menu
Accueil
Articles du Jour
arXiv
HuggingFace
Tarifs
Compte
Espace de travail
🇫🇷
Français
Loading...
•
•
•
•
•
•
•
•
•
•
Articles de Recherche en IA Quotidiens
Articles de recherche en IA sélectionnés quotidiennement avec traductions
February 18th, 2025
Grands modèles de langage et échecs de raisonnement mathématique
Large Language Models and Mathematical Reasoning Failures
Johan Boye, Birger Moell
•
Feb 17, 2025
•
3
3
EQ-VAE : Espace latent régularisé par équivariance pour une modélisation générative d'images améliorée
EQ-VAE: Equivariance Regularized Latent Space for Improved Generative Image Modeling
Theodoros Kouzelis, Ioannis Kakogeorgiou, Spyros Gidaris, Nikos Komodakis
•
Feb 13, 2025
•
7
2
Dyve : Penser vite et lentement pour la vérification dynamique des processus
Dyve: Thinking Fast and Slow for Dynamic Process Verification
Jianyuan Zhong, Zeju Li, Zhijian Xu, Xiangyu Wen, Qiang Xu
•
Feb 16, 2025
•
7
2
Des meilleures embeddings avec Adam couplé
Better Embeddings with Coupled Adam
Felix Stollenwerk, Tobias Stollenwerk
•
Feb 12, 2025
•
1
3
Le Mirage de la Modification de Modèles : Réévaluation dans le Monde Réel
The Mirage of Model Editing: Revisiting Evaluation in the Wild
Wanli Yang, Fei Sun, Jiajun Tan, Xinyu Ma, Qi Cao, Dawei Yin, Huawei Shen, Xueqi Cheng
•
Feb 16, 2025
•
10
2
Vers une préformation efficace des données pour la prédiction des propriétés atomiques
Towards Data-Efficient Pretraining for Atomic Property Prediction
Yasir Ghunaim, Hasan Abed Al Kader Hammoud, Bernard Ghanem
•
Feb 16, 2025
•
3
3
ReLearn : Désapprentissage par l'apprentissage pour les grands modèles de langage
ReLearn: Unlearning via Learning for Large Language Models
Haoming Xu, Ningyuan Zhao, Liming Yang, Sendong Zhao, Shumin Deng, Mengru Wang, Bryan Hooi, Nay Oo, Huajun Chen, Ningyu Zhang
•
Feb 16, 2025
•
29
2
Modèles de diffusion sans guidance sans classifieur
Diffusion Models without Classifier-free Guidance
Zhicong Tang, Jianmin Bao, Dong Chen, Baining Guo
•
Feb 17, 2025
•
7
2
Mémoire, Benchmark et Robots : Un Benchmark pour la Résolution de Tâches Complexes avec l'Apprentissage par Renforcement
Memory, Benchmark & Robots: A Benchmark for Solving Complex Tasks with Reinforcement Learning
Egor Cherepanov, Nikita Kachaev, Alexey K. Kovalev, Aleksandr I. Panov
•
Feb 14, 2025
•
5
2
Mesure de la complexité linguistique en tant que proxy bruité de type zéro-shot pour évaluer les performances des LLM.
Language Complexity Measurement as a Noisy Zero-Shot Proxy for Evaluating LLM Performance
Birger Moell, Johan Boye
•
Feb 17, 2025
•
0
2
Montrez-moi le travail : Exigences des vérificateurs de faits pour la vérification des faits automatisée explicative
Show Me the Work: Fact-Checkers' Requirements for Explainable Automated Fact-Checking
Greta Warren, Irina Shklovski, Isabelle Augenstein
•
Feb 13, 2025
•
4
2
Affinage de la diffusion : Ajustement fin des modèles de diffusion avec le renforcement de la trajectoire de débruitage
Diffusion-Sharpening: Fine-tuning Diffusion Models with Denoising Trajectory Sharpening
Ye Tian, Ling Yang, Xinchen Zhang, Yunhai Tong, Mengdi Wang, Bin Cui
•
Feb 17, 2025
•
16
3
SAFE-SQL : Apprentissage en contexte auto-augmenté avec sélection d'exemples fins pour Text-to-SQL.
SAFE-SQL: Self-Augmented In-Context Learning with Fine-grained Example Selection for Text-to-SQL
Jimin Lee, Ingeol Baek, Byeongjeong Kim, Hwanhee Lee
•
Feb 17, 2025
•
7
2
Explorer : Mise à l'échelle de la synthèse de trajectoires web pilotée par l'exploration pour des agents web multimodaux
Explorer: Scaling Exploration-driven Web Trajectory Synthesis for Multimodal Web Agents
Vardaan Pahuja, Yadong Lu, Corby Rosset, Boyu Gou, Arindam Mitra, Spencer Whitehead, Yu Su, Ahmed Awadallah
•
Feb 17, 2025
•
10
2
Développement d'un programmeur axé sur la preuve qui est 64 % plus performant que GPT-4o en cas de rareté des données
Building A Proof-Oriented Programmer That Is 64% Better Than GPT-4o Under Data Scarsity
Dylan Zhang, Justin Wang, Tianran Sun
•
Feb 17, 2025
•
6
2
Un exemple montré, de nombreux concepts connus ! Raisonnement conceptuel basé sur les contre-exemples dans les LLM mathématiques
One Example Shown, Many Concepts Known! Counterexample-Driven Conceptual Reasoning in Mathematical LLMs
Yinghui Li, Jiayi Kuang, Haojing Huang, Zhikun Xu, Xinnian Liang, Yi Yu, Wenlian Lu, Yangning Li, Xiaoyu Tan, Chao Qu, Ying Shen, Hai-Tao Zheng, Philip S. Yu
•
Feb 12, 2025
•
7
2
PhysReason : Un référentiel exhaustif pour le raisonnement basé sur la physique
PhysReason: A Comprehensive Benchmark towards Physics-Based Reasoning
Xinyu Zhang, Yuxuan Dong, Yanrui Wu, Jiaxing Huang, Chengyou Jia, Basura Fernando, Mike Zheng Shou, Lingling Zhang, Jun Liu
•
Feb 17, 2025
•
7
2
Vidéo-SALMONN-o1 : Modèle de Langage Audiovisuel Large Amélioré par le Raisonnement
video-SALMONN-o1: Reasoning-enhanced Audio-visual Large Language Model
Guangzhi Sun, Yudong Yang, Jimin Zhuang, Changli Tang, Yixuan Li, Wei Li, Zejun MA, Chao Zhang
•
Feb 17, 2025
•
8
2
Cuculus : Un passager clandestin en IE éclos par une nutrition massive dans le nid de LLM
Cuckoo: An IE Free Rider Hatched by Massive Nutrition in LLM's Nest
Letian Peng, Zilong Wang, Feng Yao, Jingbo Shang
•
Feb 16, 2025
•
6
2
Interrogez dans n'importe quelle modalité : Une étude approfondie sur la génération augmentée par la récupération multimodale
Ask in Any Modality: A Comprehensive Survey on Multimodal Retrieval-Augmented Generation
Mohammad Mahdi Abootorabi, Amirhosein Zobeiri, Mahdi Dehghani, Mohammadali Mohammadkhani, Bardia Mohammadi, Omid Ghahroodi, Mahdieh Soleymani Baghshah, Ehsaneddin Asgari
•
Feb 12, 2025
•
17
2
Je pense, donc je diffuse : permettre le raisonnement multimodal en contexte dans les modèles de diffusion
I Think, Therefore I Diffuse: Enabling Multimodal In-Context Reasoning in Diffusion Models
Zhenxing Mi, Kuan-Chieh Wang, Guocheng Qian, Hanrong Ye, Runtao Liu, Sergey Tulyakov, Kfir Aberman, Dan Xu
•
Feb 12, 2025
•
35
3
Comment les LLM acquièrent-ils de nouvelles connaissances ? Une perspective des circuits de connaissances sur la pré-formation continue
How Do LLMs Acquire New Knowledge? A Knowledge Circuits Perspective on Continual Pre-Training
Yixin Ou, Yunzhi Yao, Ningyu Zhang, Hui Jin, Jiacheng Sun, Shumin Deng, Zhenguo Li, Huajun Chen
•
Feb 16, 2025
•
22
6
Génération de messages système pour les préférences utilisateur en utilisant des modèles open source
System Message Generation for User Preferences using Open-Source Models
Minbyul Jeong, Jungho Cho, Minsoo Khang, Dawoon Jung, Teakgyu Hong
•
Feb 17, 2025
•
15
2
Apprentissage des politiques de se lever pour les robots humanoïdes du monde réel
Learning Getting-Up Policies for Real-World Humanoid Robots
Xialin He, Runpei Dong, Zixuan Chen, Saurabh Gupta
•
Feb 17, 2025
•
42
3
ILIAS : Recherche d'images au niveau des instances à grande échelle
ILIAS: Instance-Level Image retrieval At Scale
Giorgos Kordopatis-Zilos, Vladan Stojnić, Anna Manko, Pavel Šuma, Nikolaos-Antonios Ypsilantis, Nikos Efthymiadis, Zakaria Laskar, Jiří Matas, Ondřej Chum, Giorgos Tolias
•
Feb 17, 2025
•
4
2
Attention Sparse Native : Une Attention Sparse Alignée sur le Matériel et Entraînable de Manière Native
Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention
Jingyang Yuan, Huazuo Gao, Damai Dai, Junyu Luo, Liang Zhao, Zhengyan Zhang, Zhenda Xie, Y. X. Wei, Lean Wang, Zhiping Xiao, Yuqing Wang, Chong Ruan, Ming Zhang, Wenfeng Liang, Wangding Zeng
•
Feb 16, 2025
•
155
10
CRANE : Raisonnement avec génération LLM contrainte
CRANE: Reasoning with constrained LLM generation
Debangshu Banerjee, Tarun Suresh, Shubham Ugare, Sasa Misailovic, Gagandeep Singh
•
Feb 13, 2025
•
19
2
IHEval : Évaluation des modèles linguistiques sur le respect de la hiérarchie des instructions
IHEval: Evaluating Language Models on Following the Instruction Hierarchy
Zhihan Zhang, Shiyang Li, Zixuan Zhang, Xin Liu, Haoming Jiang, Xianfeng Tang, Yifan Gao, Zheng Li, Haodong Wang, Zhaoxuan Tan, Yichuan Li, Qingyu Yin, Bing Yin, Meng Jiang
•
Feb 12, 2025
•
19
2
Sailor2 : Naviguer en Asie du Sud-Est avec des modèles de langage multilingues inclusifs
Sailor2: Sailing in South-East Asia with Inclusive Multilingual LLMs
Longxu Dou, Qian Liu, Fan Zhou, Changyu Chen, Zili Wang, Ziqi Jin, Zichen Liu, Tongyao Zhu, Cunxiao Du, Penghui Yang, Haonan Wang, Jiaheng Liu, Yongchi Zhao, Xiachong Feng, Xin Mao, Man Tsung Yeung, Kunat Pipatanakul, Fajri Koto, Min Si Thu, Hynek Kydlíček, Zeyi Liu, Qunshu Lin, Sittipong Sripaisarnmongkol, Kridtaphad Sae-Khow, Nirattisai Thongchim, Taechawat Konkaew, Narong Borijindargoon, Anh Dao, Matichon Maneegard, Phakphum Artkaew, Zheng-Xin Yong, Quan Nguyen, Wannaphong Phatthiyaphaibun, Hoang H. Tran, Mike Zhang, Shiqi Chen, Tianyu Pang, Chao Du, Xinyi Wan, Wei Lu, Min Lin
•
Feb 18, 2025
•
17
4
Un seul modèle peut-il maîtriser à la fois les conversations multi-tours et l'utilisation d'outils ? CALM : Un modèle de langage conversationnel agentique unifié
Can a Single Model Master Both Multi-turn Conversations and Tool Use? CALM: A Unified Conversational Agentic Language Model
Emre Can Acikgoz, Jeremiah Greer, Akul Datta, Ze Yang, William Zeng, Oussama Elachqar, Emmanouil Koukoumidis, Dilek Hakkani-Tür, Gokhan Tur
•
Feb 12, 2025
•
5
2
ExaGPT : Détection de texte généré par machine basée sur des exemples pour l'interprétabilité humaine
ExaGPT: Example-Based Machine-Generated Text Detection for Human Interpretability
Ryuto Koike, Masahiro Kaneko, Ayana Niwa, Preslav Nakov, Naoaki Okazaki
•
Feb 17, 2025
•
1
2
Évaluation des Données par Réseaux Neuronaux pour un Réglage Fin Efficace des Instructions
Data Valuation using Neural Networks for Efficient Instruction Fine-Tuning
Ishika Agarwal, Dilek Hakkani-Tür
•
Feb 14, 2025
•
1
2
La compréhension intuitive de la physique émerge de l'auto-apprentissage supervisé préalable sur des vidéos naturelles.
Intuitive physics understanding emerges from self-supervised pretraining on natural videos
Quentin Garrido, Nicolas Ballas, Mahmoud Assran, Adrien Bardes, Laurent Najman, Michael Rabbat, Emmanuel Dupoux, Yann LeCun
•
Feb 17, 2025
•
19
2
Parler Structurellement, Agir Hiérarchiquement : Un Cadre Collaboratif pour les Systèmes Multi-Agents LLM
Talk Structurally, Act Hierarchically: A Collaborative Framework for LLM Multi-Agent Systems
Zhao Wang, Sota Moriyama, Wei-Yao Wang, Briti Gangopadhyay, Shingo Takamatsu
•
Feb 16, 2025
•
13
2
SWE-Lancer : Les LLM de Frontier peuvent-ils gagner 1 million de dollars en travaillant en freelance dans le domaine de l'ingénierie logicielle ?
SWE-Lancer: Can Frontier LLMs Earn $1 Million from Real-World Freelance Software Engineering?
Samuel Miserendino, Michele Wang, Tejal Patwardhan, Johannes Heidecke
•
Feb 17, 2025
•
45
5
SURGE : Sur le potentiel des grands modèles de langage en tant qu'exécuteurs de code de substitution polyvalents
SURGE: On the Potential of Large Language Models as General-Purpose Surrogate Code Executors
Bohan Lyu, Siqiao Huang, Zichen Liang
•
Feb 16, 2025
•
10
2
MagicArticulate : Préparez vos modèles 3D pour l'articulation
MagicArticulate: Make Your 3D Models Articulation-Ready
Chaoyue Song, Jianfeng Zhang, Xiu Li, Fan Yang, Yiwen Chen, Zhongcong Xu, Jun Hao Liew, Xiaoyang Guo, Fayao Liu, Jiashi Feng, Guosheng Lin
•
Feb 17, 2025
•
8
2
HermesFlow : Combler de manière transparente le fossé dans la compréhension et la génération multimodales
HermesFlow: Seamlessly Closing the Gap in Multimodal Understanding and Generation
Ling Yang, Xinchen Zhang, Ye Tian, Chenming Shang, Minghao Xu, Wentao Zhang, Bin Cui
•
Feb 17, 2025
•
16
2