ChatPaper.ai
Ouvrir le menu
Accueil
Articles du Jour
arXiv
HuggingFace
Tarifs
Compte
Espace de travail
🇫🇷
Français
Loading...
•
•
•
•
•
•
•
•
•
•
Articles de Recherche en IA Quotidiens
Articles de recherche en IA sélectionnés quotidiennement avec traductions
February 19th, 2025
Vous n'exploitez pas pleinement la capacité de représentation des Transformers
You Do Not Fully Utilize Transformer's Representation Capacity
Gleb Gerasimov, Yaroslav Aksenov, Nikita Balagansky, Viacheslav Sinii, Daniil Gavrilov
•
Feb 13, 2025
•
38
3
Est-ce votre réponse finale ? La mise à l'échelle au moment du test améliore la sélection des réponses aux questions
Is That Your Final Answer? Test-Time Scaling Improves Selective Question Answering
William Jurayj, Jeffrey Cheng, Benjamin Van Durme
•
Feb 19, 2025
•
3
1
MUDDFormer : Surmonter les goulets d'étranglement résiduels dans les Transformers grâce à des connexions denses dynamiques multi-voies
MUDDFormer: Breaking Residual Bottlenecks in Transformers via Multiway Dynamic Dense Connections
Da Xiao, Qingye Meng, Shengping Li, Xingyuan Yuan
•
Feb 13, 2025
•
12
2
Magma : Un modèle fondateur pour les agents d'IA multimodaux
Magma: A Foundation Model for Multimodal AI Agents
Jianwei Yang, Reuben Tan, Qianhui Wu, Ruijie Zheng, Baolin Peng, Yongyuan Liang, Yu Gu, Mu Cai, Seonghyeon Ye, Joel Jang, Yuquan Deng, Lars Liden, Jianfeng Gao
•
Feb 18, 2025
•
58
6
PAFT : Ajustement fin indépendant du prompt
PAFT: Prompt-Agnostic Fine-Tuning
Chenxing Wei, Yao Shu, Mingwen Ou, Ying Tiffany He, Fei Richard Yu
•
Feb 18, 2025
•
15
8
Modèle de diffusion continue pour la modélisation du langage
Continuous Diffusion Model for Language Modeling
Jaehyeong Jo, Sung Ju Hwang
•
Feb 17, 2025
•
54
4
Les Risques Cachés des Modèles de Raisonnement à Grande Échelle : Une Évaluation de Sécurité de R1
The Hidden Risks of Large Reasoning Models: A Safety Assessment of R1
Kaiwen Zhou, Chengzhi Liu, Xuandong Zhao, Shreedhar Jangam, Jayanth Srinivasa, Gaowen Liu, Dawn Song, Xin Eric Wang
•
Feb 18, 2025
•
7
2
Perovskite-LLM : Modèles de Langue de Grande Taille Enrichis de Connaissances pour la Recherche sur les Cellules Solaires à Pérovskite
Perovskite-LLM: Knowledge-Enhanced Large Language Models for Perovskite Solar Cell Research
Xiang Liu, Penglei Sun, Shuyan Chen, Longhan Zhang, Peijie Dong, Huajie You, Yongqi Zhang, Chang Yan, Xiaowen Chu, Tong-yi Zhang
•
Feb 18, 2025
•
2
2
Exploitation des modèles de vision pour l'analyse de séries temporelles : une étude
Harnessing Vision Models for Time Series Analysis: A Survey
Jingchao Ni, Ziming Zhao, ChengAo Shen, Hanghang Tong, Dongjin Song, Wei Cheng, Dongsheng Luo, Haifeng Chen
•
Feb 13, 2025
•
2
2
Phantom : Génération de vidéos cohérentes avec le sujet via un alignement intermodal
Phantom: Subject-consistent video generation via cross-modal alignment
Lijie Liu, Tianxiang Ma, Bingchuan Li, Zhuowei Chen, Jiawei Liu, Qian He, Xinglong Wu
•
Feb 16, 2025
•
60
3
Reconsidérer la mise à l'échelle au moment du test des modèles de type o1 : Possèdent-ils réellement des capacités de mise à l'échelle lors des tests ?
Revisiting the Test-Time Scaling of o1-like Models: Do they Truly Possess Test-Time Scaling Capabilities?
Zhiyuan Zeng, Qinyuan Cheng, Zhangyue Yin, Yunhua Zhou, Xipeng Qiu
•
Feb 17, 2025
•
16
2
YOLOv12 : Détecteurs d'objets en temps réel axés sur l'attention
YOLOv12: Attention-Centric Real-Time Object Detectors
Yunjie Tian, Qixiang Ye, David Doermann
•
Feb 18, 2025
•
10
2
OctoTools : Un cadre agentique avec des outils extensibles pour le raisonnement complexe
OctoTools: An Agentic Framework with Extensible Tools for Complex Reasoning
Pan Lu, Bowen Chen, Sheng Liu, Rahul Thapa, Joseph Boen, James Zou
•
Feb 16, 2025
•
17
3
Mise à l'échelle des agents autonomes via la modélisation automatique des récompenses et la planification
Scaling Autonomous Agents via Automatic Reward Modeling And Planning
Zhenfang Chen, Delin Chen, Rui Sun, Wenjun Liu, Chuang Gan
•
Feb 17, 2025
•
2
2
Soundwave : Moins, c'est mieux pour l'alignement parole-texte dans les LLM
Soundwave: Less is More for Speech-Text Alignment in LLMs
Yuhao Zhang, Zhiheng Liu, Fan Bu, Ruiyu Zhang, Benyou Wang, Haizhou Li
•
Feb 18, 2025
•
86
4
FLAG-Trader : Fusion d'Agent LLM avec Apprentissage par Renforcement basé sur le Gradient pour le Trading Financier
FLAG-Trader: Fusion LLM-Agent with Gradient-based Reinforcement Learning for Financial Trading
Guojun Xiong, Zhiyang Deng, Keyi Wang, Yupeng Cao, Haohang Li, Yangyang Yu, Xueqing Peng, Mingquan Lin, Kaleb E Smith, Xiao-Yang Liu, Jimin Huang, Sophia Ananiadou, Qianqian Xie
•
Feb 17, 2025
•
36
2
SoFar : L'orientation ancrée dans le langage relie le raisonnement spatial et la manipulation d'objets
SoFar: Language-Grounded Orientation Bridges Spatial Reasoning and Object Manipulation
Zekun Qi, Wenyao Zhang, Yufei Ding, Runpei Dong, Xinqiang Yu, Jingwen Li, Lingyun Xu, Baoyu Li, Xialin He, Guofan Fan, Jiazhao Zhang, Jiawei He, Jiayuan Gu, Xin Jin, Kaisheng Ma, Zhizheng Zhang, He Wang, Li Yi
•
Feb 18, 2025
•
30
2
L'encodeur multilingue en sait plus que vous ne le pensez : prétraitement avec poids partagés pour les langues extrêmement peu dotées
Multilingual Encoder Knows more than You Realize: Shared Weights Pretraining for Extremely Low-Resource Languages
Zeli Su, Ziyin Zhang, Guixian Xu, Jianing Liu, XU Han, Ting Zhang, Yushuang Dong
•
Feb 15, 2025
•
2
2
RealSyn : Un paradigme efficace et évolutif de transformation de documents intercalés multimodaux
RealSyn: An Effective and Scalable Multimodal Interleaved Document Transformation Paradigm
Tiancheng Gu, Kaicheng Yang, Chaoyi Zhang, Yin Xie, Xiang An, Ziyong Feng, Dongnan Liu, Weidong Cai, Jiankang Deng
•
Feb 18, 2025
•
16
2
Pré-entraînement de modèles robotiques auto-régressifs avec des représentations 4D
Pre-training Auto-regressive Robotic Models with 4D Representations
Dantong Niu, Yuvan Sharma, Haoru Xue, Giscard Biamby, Junyi Zhang, Ziteng Ji, Trevor Darrell, Roei Herzig
•
Feb 18, 2025
•
5
2
FinMTEB : Benchmark d'Intégration de Texte Massif pour la Finance
FinMTEB: Finance Massive Text Embedding Benchmark
Yixuan Tang, Yi Yang
•
Feb 16, 2025
•
3
2
Atome de Pensées pour la Mise à l'Échelle en Temps de Test des Modèles de Langage Markoviens
Atom of Thoughts for Markov LLM Test-Time Scaling
Fengwei Teng, Zhaoyang Yu, Quan Shi, Jiayi Zhang, Chenglin Wu, Yuyu Luo
•
Feb 17, 2025
•
16
4
Multimodal Mamba : Modèle d'espace d'état multimodal à décodeur unique via une distillation quadratique à linéaire
Multimodal Mamba: Decoder-only Multimodal State Space Model via Quadratic to Linear Distillation
Bencheng Liao, Hongyuan Tao, Qian Zhang, Tianheng Cheng, Yingyue Li, Haoran Yin, Wenyu Liu, Xinggang Wang
•
Feb 18, 2025
•
38
2
Compression de 1568 tokens en un seul vecteur et retour : explorer les limites de la capacité des espaces d'embedding
Cramming 1568 Tokens into a Single Vector and Back Again: Exploring the Limits of Embedding Space Capacity
Yuri Kuratov, Mikhail Arkhipov, Aydar Bulatov, Mikhail Burtsev
•
Feb 18, 2025
•
70
4
SafeRoute : Sélection adaptative de modèles pour des garde-fous de sécurité efficaces et précis dans les grands modèles de langage
SafeRoute: Adaptive Model Selection for Efficient and Accurate Safety Guardrails in Large Language Models
Seanie Lee, Dong Bok Lee, Dominik Wagner, Minki Kang, Haebin Seong, Tobias Bocklet, Juho Lee, Sung Ju Hwang
•
Feb 18, 2025
•
28
2
Intégration de connaissances spécifiques à un domaine dans les grands modèles de langage : une étude approfondie
Injecting Domain-Specific Knowledge into Large Language Models: A Comprehensive Survey
Zirui Song, Bin Yan, Yuhan Liu, Miao Fang, Mingzhe Li, Rui Yan, Xiuying Chen
•
Feb 15, 2025
•
4
2
Text2World : Évaluation des modèles de langage de grande taille pour la génération de modèles du monde symbolique
Text2World: Benchmarking Large Language Models for Symbolic World Model Generation
Mengkang Hu, Tianxing Chen, Yude Zou, Yuheng Lei, Qiguang Chen, Ming Li, Hongyuan Zhang, Wenqi Shao, Ping Luo
•
Feb 18, 2025
•
13
2
Repenser l'apprentissage des préférences humaines diverses à travers l'analyse en composantes principales
Rethinking Diverse Human Preference Learning through Principal Component Analysis
Feng Luo, Rui Yang, Hao Sun, Chunyuan Deng, Jiarui Yao, Jingyan Shen, Huan Zhang, Hanjie Chen
•
Feb 18, 2025
•
38
3
HeadInfer : Inférence efficace en mémoire des LLM par déchargement tête par tête
HeadInfer: Memory-Efficient LLM Inference by Head-wise Offloading
Cheng Luo, Zefan Cai, Hanshi Sun, Jinqi Xiao, Bo Yuan, Wen Xiao, Junjie Hu, Jiawei Zhao, Beidi Chen, Anima Anandkumar
•
Feb 18, 2025
•
11
2
Raisonnement comparatif par la foule : Débloquer des évaluations exhaustives pour les LLM en tant qu'évaluateurs
Crowd Comparative Reasoning: Unlocking Comprehensive Evaluations for LLM-as-a-Judge
Qiyuan Zhang, Yufei Wang, Yuxin Jiang, Liangyou Li, Chuhan Wu, Yasheng Wang, Xin Jiang, Lifeng Shang, Ruiming Tang, Fuyuan Lyu, Chen Ma
•
Feb 18, 2025
•
6
2
Flow-of-Options : Raisonnement diversifié et amélioré des LLM en explorant les options
Flow-of-Options: Diversified and Improved LLM Reasoning by Thinking Through Options
Lakshmi Nair, Ian Trase, Mark Kim
•
Feb 18, 2025
•
7
3
Mises à jour immédiates pour la communication et le calcul superposés dans DiLoCo
Eager Updates For Overlapped Communication and Computation in DiLoCo
Satyen Kale, Arthur Douillard, Yanislav Donchev
•
Feb 18, 2025
•
7
2
HealthGPT : Un modèle médical multimodal de grande taille unifiant compréhension et génération via l'adaptation de connaissances hétérogènes
HealthGPT: A Medical Large Vision-Language Model for Unifying Comprehension and Generation via Heterogeneous Knowledge Adaptation
Tianwei Lin, Wenqiao Zhang, Sijing Li, Yuqian Yuan, Binhe Yu, Haoyuan Li, Wanggui He, Hao Jiang, Mengze Li, Xiaohui Song, Siliang Tang, Jun Xiao, Hui Lin, Yueting Zhuang, Beng Chin Ooi
•
Feb 14, 2025
•
10
2