ChatPaper.ai
Ouvrir le menu
Accueil
Articles du Jour
arXiv
HuggingFace
Tarifs
Compte
Espace de travail
🇫🇷
Français
Loading...
•
•
•
•
•
•
•
•
•
•
Articles de Recherche en IA Quotidiens
Articles de recherche en IA sélectionnés quotidiennement avec traductions
April 15th, 2025
SocioVerse : Un modèle de monde pour la simulation sociale alimenté par des agents LLM et un bassin de 10 millions d'utilisateurs réels
SocioVerse: A World Model for Social Simulation Powered by LLM Agents and A Pool of 10 Million Real-World Users
Xinnong Zhang, Jiayu Lin, Xinyi Mou, Shiyue Yang, Xiawei Liu, Libo Sun, Hanjia Lyu, Yihang Yang, Weihong Qi, Yue Chen, Guanying Li, Ling Yan, Yao Hu, Siming Chen, Yu Wang, Jingxuan Huang, Jiebo Luo, Shiping Tang, Libo Wu, Baohua Zhou, Zhongyu Wei
•
Apr 14, 2025
•
16
3
TinyLLaVA-Video-R1 : Vers des modèles de langage multimodal plus compacts pour le raisonnement vidéo
TinyLLaVA-Video-R1: Towards Smaller LMMs for Video Reasoning
Xingjian Zhang, Siwei Wen, Wenjun Wu, Lei Huang
•
Apr 13, 2025
•
16
3
Avons-nous déjà unifié la génération et la compréhension d'images ? Une étude empirique des capacités de génération d'images de GPT-4o
Have we unified image generation and understanding yet? An empirical study of GPT-4o's image generation ability
Ning Li, Jingran Zhang, Justin Cui
•
Apr 9, 2025
•
49
2
PRIMA.CPP : Accélération de l'inférence de modèles de langage à 70 milliards de paramètres sur des clusters domestiques à ressources limitées
PRIMA.CPP: Speeding Up 70B-Scale LLM Inference on Low-Resource Everyday Home Clusters
Zonghang Li, Tao Li, Wenjiao Feng, Mohsen Guizani, Hongfang Yu
•
Apr 7, 2025
•
126
7
Mavors : Représentation vidéo multi-granularité pour les modèles de langage multimodaux de grande échelle
Mavors: Multi-granularity Video Representation for Multimodal Large Language Model
Yang Shi, Jiaheng Liu, Yushuo Guan, Zhenhua Wu, Yuanxing Zhang, Zihao Wang, Weihong Lin, Jingyun Hua, Zekun Wang, Xinlong Chen, Bohan Zeng, Wentao Zhang, Fuzheng Zhang, Wenjing Yang, Di Zhang
•
Apr 14, 2025
•
30
2
Auto-formation itérative pour la génération de code via un ré-ordonnancement renforcé
Iterative Self-Training for Code Generation via Reinforced Re-Ranking
Nikita Sorokin, Ivan Sedykh, Valentin Malykh
•
Apr 13, 2025
•
34
2
DUMP : Apprentissage curriculaire automatisé au niveau de la distribution pour le post-entraînement des LLM basés sur l'apprentissage par renforcement
DUMP: Automated Distribution-Level Curriculum Learning for RL-based LLM Post-training
Zhenting Wang, Guofeng Cui, Kun Wan, Wentian Zhao
•
Apr 13, 2025
•
19
2
VisuoThink : Renforcer le raisonnement des LVLM grâce à la recherche arborescente multimodale
VisuoThink: Empowering LVLM Reasoning with Multimodal Tree Search
Yikun Wang, Siyin Wang, Qinyuan Cheng, Zhaoye Fei, Liang Ding, Qipeng Guo, Dacheng Tao, Xipeng Qiu
•
Apr 12, 2025
•
12
4
FUSION : Intégration complète des représentations vision-langage pour une compréhension intermodale approfondie
FUSION: Fully Integration of Vision-Language Representations for Deep Cross-Modal Understanding
Zheng Liu, Mengjie Liu, Jingzhou Chen, Jingwei Xu, Bin Cui, Conghui He, Wentao Zhang
•
Apr 14, 2025
•
38
3
AgentRewardBench : Évaluation des méthodes automatiques d'évaluation des trajectoires d'agents web
AgentRewardBench: Evaluating Automatic Evaluations of Web Agent Trajectories
Xing Han Lù, Amirhossein Kazemnejad, Nicholas Meade, Arkil Patel, Dongchan Shin, Alejandra Zambrano, Karolina Stańczak, Peter Shaw, Christopher J. Pal, Siva Reddy
•
Apr 11, 2025
•
27
2
Comment les nouvelles données s'intègrent dans les connaissances des LLM et comment les diluer
How new data permeates LLM knowledge and how to dilute it
Chen Sun, Renat Aksitov, Andrey Zhmoginov, Nolan Andrew Miller, Max Vladymyrov, Ulrich Rueckert, Been Kim, Mark Sandler
•
Apr 13, 2025
•
7
2
VL-Rethinker : Incitation à l'auto-réflexion des modèles vision-langage par apprentissage par renforcement
VL-Rethinker: Incentivizing Self-Reflection of Vision-Language Models with Reinforcement Learning
Haozhe Wang, Chao Qu, Zuming Huang, Wei Chu, Fangzhen Lin, Wenhu Chen
•
Apr 10, 2025
•
42
2
Les grands modèles de langage peuvent être des persuaders dangereux : étude empirique sur la sécurité persuasive dans les grands modèles de langage
LLM Can be a Dangerous Persuader: Empirical Study of Persuasion Safety in Large Language Models
Minqian Liu, Zhiyang Xu, Xinyi Zhang, Heajun An, Sarvech Qadir, Qi Zhang, Pamela J. Wisniewski, Jin-Hee Cho, Sang Won Lee, Ruoxi Jia, Lifu Huang
•
Apr 14, 2025
•
4
2
3D CoCa : Les modèles de contraste sont des générateurs de descriptions 3D
3D CoCa: Contrastive Learners are 3D Captioners
Ting Huang, Zeyu Zhang, Yemin Wang, Hao Tang
•
Apr 13, 2025
•
5
2
LLM-SRBench : Un nouveau benchmark pour la découverte d'équations scientifiques avec des modèles de langage de grande taille
LLM-SRBench: A New Benchmark for Scientific Equation Discovery with Large Language Models
Parshin Shojaee, Ngoc-Hieu Nguyen, Kazem Meidani, Amir Barati Farimani, Khoa D Doan, Chandan K Reddy
•
Apr 14, 2025
•
8
2
MDK12-Bench : Un benchmark multidisciplinaire pour évaluer le raisonnement dans les modèles de langage multimodal de grande envergure
MDK12-Bench: A Multi-Discipline Benchmark for Evaluating Reasoning in Multimodal Large Language Models
Pengfei Zhou, Fanrui Zhang, Xiaopeng Peng, Zhaopan Xu, Jiaxin Ai, Yansheng Qiu, Chuanhao Li, Zhen Li, Ming Li, Yukang Feng, Jianwen Sun, Haoquan Zhang, Zizhen Li, Xiaofeng Mao, Wangbo Zhao, Kai Wang, Xiaojun Chang, Wenqi Shao, Yang You, Kaipeng Zhang
•
Apr 8, 2025
•
4
2
M1 : Vers un calcul évolutif au moment du test avec les modèles de raisonnement Mamba
M1: Towards Scalable Test-Time Compute with Mamba Reasoning Models
Junxiong Wang, Wen-Ding Li, Daniele Paliotta, Daniel Ritter, Alexander M. Rush, Tri Dao
•
Apr 14, 2025
•
10
2
MIEB : Benchmark d'Embedding d'Images à Grande Échelle
MIEB: Massive Image Embedding Benchmark
Chenghao Xiao, Isaac Chung, Imene Kerboua, Jamie Stirling, Xin Zhang, Márton Kardos, Roman Solomatin, Noura Al Moubayed, Kenneth Enevoldsen, Niklas Muennighoff
•
Apr 14, 2025
•
16
2
InternVL3 : Exploration de techniques avancées d'entraînement et de stratégies au moment du test pour les modèles multimodaux open-source
InternVL3: Exploring Advanced Training and Test-Time Recipes for Open-Source Multimodal Models
Jinguo Zhu, Weiyun Wang, Zhe Chen, Zhaoyang Liu, Shenglong Ye, Lixin Gu, Yuchen Duan, Hao Tian, Weijie Su, Jie Shao, Zhangwei Gao, Erfei Cui, Yue Cao, Yangzhou Liu, Weiye Xu, Hao Li, Jiahao Wang, Han Lv, Dengnian Chen, Songze Li, Yinan He, Tan Jiang, Jiapeng Luo, Yi Wang, Conghui He, Botian Shi, Xingcheng Zhang, Wenqi Shao, Junjun He, Yingtong Xiong, Wenwen Qu, Peng Sun, Penglong Jiao, Lijun Wu, Kaipeng Zhang, Huipeng Deng, Jiaye Ge, Kai Chen, Limin Wang, Min Dou, Lewei Lu, Xizhou Zhu, Tong Lu, Dahua Lin, Yu Qiao, Jifeng Dai, Wenhai Wang
•
Apr 14, 2025
•
250
8
DeepSeek vs. o3-mini : Dans quelle mesure les LLM de raisonnement peuvent-ils évaluer la traduction automatique et la synthèse ?
DeepSeek vs. o3-mini: How Well can Reasoning LLMs Evaluate MT and Summarization?
Daniil Larionov, Sotaro Takeshita, Ran Zhang, Yanran Chen, Christoph Leiter, Zhipin Wang, Christian Greisinger, Steffen Eger
•
Apr 10, 2025
•
4
2
Les modèles de raisonnement peuvent être efficaces sans nécessiter de pensée.
Reasoning Models Can Be Effective Without Thinking
Wenjie Ma, Jingxuan He, Charlie Snell, Tyler Griggs, Sewon Min, Matei Zaharia
•
Apr 14, 2025
•
10
2
S1-Bench : Un benchmark simple pour évaluer la capacité de pensée de type Système 1 des modèles de raisonnement à grande échelle
S1-Bench: A Simple Benchmark for Evaluating System 1 Thinking Capability of Large Reasoning Models
Wenyuan Zhang, Shuaiyi Nie, Xinghua Zhang, Zefeng Zhang, Tingwen Liu
•
Apr 14, 2025
•
21
3
Abstractions fonctionnelles exécutables : Inférence de programmes génératifs pour des problèmes mathématiques avancés
Executable Functional Abstractions: Inferring Generative Programs for Advanced Math Problems
Zaid Khan, Elias Stengel-Eskin, Archiki Prasad, Jaemin Cho, Mohit Bansal
•
Apr 14, 2025
•
13
2
Franchir la barrière des données -- Construire des agents d'interface graphique par généralisation des tâches
Breaking the Data Barrier -- Building GUI Agents Through Task Generalization
Junlei Zhang, Zichen Ding, Chang Ma, Zijie Chen, Qiushi Sun, Zhenzhong Lan, Junxian He
•
Apr 14, 2025
•
17
2
EmoAgent : Évaluation et protection des interactions humain-IA pour la sécurité en santé mentale
EmoAgent: Assessing and Safeguarding Human-AI Interaction for Mental Health Safety
Jiahao Qiu, Yinghui He, Xinzhe Juan, Yiming Wang, Yuhan Liu, Zixin Yao, Yue Wu, Xun Jiang, Ling Yang, Mengdi Wang
•
Apr 13, 2025
•
7
3
DiffuMural : Restauration des fresques de Dunhuang grâce à une diffusion multi-échelle
DiffuMural: Restoring Dunhuang Murals with Multi-scale Diffusion
Puyu Han, Jiaju Kang, Yuhang Pan, Erting Pan, Zeyu Zhang, Qunchao Jin, Juntao Jiang, Zhichen Liu, Luqi Gong
•
Apr 13, 2025
•
1
2
Audit de sécurité MCP : Les modèles de langage utilisant le protocole de contexte de modèle permettent des exploits de sécurité majeurs
MCP Safety Audit: LLMs with the Model Context Protocol Allow Major Security Exploits
Brandon Radosevich, John Halloran
•
Apr 2, 2025
•
3
2
Le Scientifique IA-v2 : Découverte scientifique automatisée au niveau de l'atelier via une recherche arborescente agentique
The AI Scientist-v2: Workshop-Level Automated Scientific Discovery via Agentic Tree Search
Yutaro Yamada, Robert Tjarko Lange, Cong Lu, Shengran Hu, Chris Lu, Jakob Foerster, Jeff Clune, David Ha
•
Apr 10, 2025
•
11
2