ChatPaper.ai
Ouvrir le menu
Accueil
Articles du Jour
arXiv
HuggingFace
Tarifs
Compte
Espace de travail
🇫🇷
Français
Loading...
•
•
•
•
•
•
•
•
•
•
Articles de Recherche en IA Quotidiens
Articles de recherche en IA sélectionnés quotidiennement avec traductions
February 24th, 2025
LLM-Microscope : Révéler le rôle caché de la ponctuation dans la mémoire contextuelle des Transformers
LLM-Microscope: Uncovering the Hidden Role of Punctuation in Context Memory of Transformers
Anton Razzhigaev, Matvey Mikhalchuk, Temurbek Rahmatullaev, Elizaveta Goncharova, Polina Druzhinina, Ivan Oseledets, Andrey Kuznetsov
•
Feb 20, 2025
•
175
3
SurveyX : Automatisation des enquêtes académiques via les grands modèles de langage
SurveyX: Academic Survey Automation via Large Language Models
Xun Liang, Jiawei Yang, Yezhaohui Wang, Chen Tang, Zifan Zheng, Simin Niu, Shichao Song, Hanyu Wang, Bo Tang, Feiyu Xiong, Keming Mao, Zhiyu li
•
Feb 20, 2025
•
100
5
Mol-LLaMA : Vers une compréhension générale des molécules dans un grand modèle de langage moléculaire
Mol-LLaMA: Towards General Understanding of Molecules in Large Molecular Language Model
Dongki Kim, Wonbin Lee, Sung Ju Hwang
•
Feb 19, 2025
•
46
2
PhotoDoodle : Apprentissage de l'édition artistique d'images à partir de données appariées en few-shot
PhotoDoodle: Learning Artistic Image Editing from Few-Shot Pairwise Data
Shijie Huang, Yiren Song, Yuxuan Zhang, Hailong Guo, Xueyin Wang, Mike Zheng Shou, Jiaming Liu
•
Feb 20, 2025
•
42
6
MaskGWM : Un modèle généralisable du monde de la conduite avec reconstruction de masque vidéo
MaskGWM: A Generalizable Driving World Model with Video Mask Reconstruction
Jingcheng Ni, Yuxin Guo, Yichen Liu, Rui Chen, Lewei Lu, Zehuan Wu
•
Feb 17, 2025
•
40
2
SIFT : Ancrage du raisonnement des LLM dans des contextes via des étiquettes
SIFT: Grounding LLM Reasoning in Contexts via Stickers
Zihao Zeng, Xuyao Huang, Boxiu Li, Zhijie Deng
•
Feb 19, 2025
•
31
3
VLM^2-Bench : Un examen approfondi de la capacité des VLM à établir implicitement des liens entre des indices visuels explicites correspondants
VLM^2-Bench: A Closer Look at How Well VLMs Implicitly Link Explicit Matching Visual Cues
Jianshu Zhang, Dongyu Yao, Renjie Pi, Paul Pu Liang, Yi R., Fung
•
Feb 17, 2025
•
30
2
LightThinker : Penser étape par étape la compression
LightThinker: Thinking Step-by-Step Compression
Jintian Zhang, Yuqi Zhu, Mengshu Sun, Yujie Luo, Shuofei Qiao, Lun Du, Da Zheng, Huajun Chen, Ningyu Zhang
•
Feb 21, 2025
•
29
7
MoBA : Mélange d'Attention par Blocs pour les LLMs à Contexte Long
MoBA: Mixture of Block Attention for Long-Context LLMs
Enzhe Lu, Zhejun Jiang, Jingyuan Liu, Yulun Du, Tao Jiang, Chao Hong, Shaowei Liu, Weiran He, Enming Yuan, Yuzhi Wang, Zhiqi Huang, Huan Yuan, Suting Xu, Xinran Xu, Guokun Lai, Yanru Chen, Huabin Zheng, Junjie Yan, Jianlin Su, Yuxin Wu, Neo Y. Zhang, Zhilin Yang, Xinyu Zhou, Mingxing Zhang, Jiezhong Qiu
•
Feb 18, 2025
•
17
2
La norme de sécurité est-elle la même pour tous ? Évaluation de la sécurité spécifique à l'utilisateur pour les grands modèles de langage
Is Safety Standard Same for Everyone? User-Specific Safety Evaluation of Large Language Models
Yeonjun In, Wonjoong Kim, Kanghoon Yoon, Sungchul Kim, Mehrab Tanjim, Kibum Kim, Chanyoung Park
•
Feb 20, 2025
•
16
2
StructFlowBench : Un benchmark de flux structuré pour le suivi d'instructions multi-tours
StructFlowBench: A Structured Flow Benchmark for Multi-turn Instruction Following
Jinnan Li, Jinzhe Li, Yue Wang, Yi Chang, Yuan Wu
•
Feb 20, 2025
•
15
2
Vers une découverte automatisée des matériaux via des ensembles de données de synthèse à grande échelle et des LLM de niveau expert comme évaluateurs
Towards Fully-Automated Materials Discovery via Large-Scale Synthesis Dataset and Expert-Level LLM-as-a-Judge
Heegyu Kim, Taeyang Jeon, Seungtaek Choi, Jihoon Hong, Dongwon Jeon, Sungbum Cho, Ga-Yeon Baek, Kyung-Won Kwak, Dong-Hee Lee, Sun-Jin Choi, Jisu Bae, Chihoon Lee, Yunseo Kim, Jinsung Park, Hyunsouk Cho
•
Feb 23, 2025
•
11
2
Évaluation de l'IA générative multimodale selon les normes éducatives coréennes
Evaluating Multimodal Generative AI with Korean Educational Standards
Sanghee Park, Geewook Kim
•
Feb 21, 2025
•
10
3
La relation entre le raisonnement et la performance dans les grands modèles de langage -- o3 (mini) réfléchit plus intensément, pas plus longtemps
The Relationship Between Reasoning and Performance in Large Language Models -- o3 (mini) Thinks Harder, Not Longer
Marthe Ballon, Andres Algaba, Vincent Ginis
•
Feb 21, 2025
•
9
2
MedHallu : Un Benchmark Complet pour la Détection des Hallucinations Médicales dans les Grands Modèles de Langage
MedHallu: A Comprehensive Benchmark for Detecting Medical Hallucinations in Large Language Models
Shrey Pandit, Jiawei Xu, Junyuan Hong, Zhangyang Wang, Tianlong Chen, Kaidi Xu, Ying Ding
•
Feb 20, 2025
•
9
2
FantasyID : Génération de vidéos préservant l'identité avec amélioration des connaissances faciales
FantasyID: Face Knowledge Enhanced ID-Preserving Video Generation
Yunpeng Zhang, Qiang Wang, Fan Jiang, Yaqi Fan, Mu Xu, Yonggang Qi
•
Feb 19, 2025
•
9
2
Pensez à l'intérieur du JSON : Stratégie de renforcement pour une adhésion stricte au schéma des LLM
Think Inside the JSON: Reinforcement Strategy for Strict LLM Schema Adherence
Bhavik Agarwal, Ishan Joshi, Viktoria Rojkova
•
Feb 18, 2025
•
9
2
KITAB-Bench : Un Benchmark Multi-Domaines Complet pour la Reconnaissance Optique de Caractères et la Compréhension de Documents en Arabe
KITAB-Bench: A Comprehensive Multi-Domain Benchmark for Arabic OCR and Document Understanding
Ahmed Heakl, Abdullah Sohail, Mukul Ranjan, Rania Hossam, Ghazi Ahmed, Mohamed El-Geish, Omar Maher, Zhiqiang Shen, Fahad Khan, Salman Khan
•
Feb 20, 2025
•
8
2
Abstract We introduce ReQFlow, a novel rectified quaternion flow model for generating high-quality protein backbone structures efficiently. ReQFlow leverages quaternion representations to model the 3D rotations of protein backbones, enabling more accurate and physically plausible generation compared to existing methods. The rectification mechanism ensures stable training and improved sample quality by addressing common issues in flow-based models. Extensive experiments demonstrate that ReQFlow outperforms state-of-the-art approaches in terms of both generation quality and computational efficiency. Our model achieves significant improvements in key metrics such as RMSD and TM-score while requiring substantially less computation time. These results highlight the potential of ReQFlow as a powerful tool for protein structure prediction and design.
ReQFlow: Rectified Quaternion Flow for Efficient and High-Quality Protein Backbone Generation
Angxiao Yue, Zichong Wang, Hongteng Xu
•
Feb 20, 2025
•
8
3
Modèles de diffusion en une étape avec appariement de distributions par f-Divergence
One-step Diffusion Models with f-Divergence Distribution Matching
Yilun Xu, Weili Nie, Arash Vahdat
•
Feb 21, 2025
•
7
2
InterFeedback : Révéler l'intelligence interactive des grands modèles multimodaux grâce au feedback humain
InterFeedback: Unveiling Interactive Intelligence of Large Multimodal Models via Human Feedback
Henry Hengyuan Zhao, Wenqi Pei, Yifei Tao, Haiyang Mei, Mike Zheng Shou
•
Feb 20, 2025
•
7
2
Arbre-de-Débat : Les Arbres de Débat Multi-Personnages Stimulent la Pensée Critique pour l'Analyse Comparative Scientifique
Tree-of-Debate: Multi-Persona Debate Trees Elicit Critical Thinking for Scientific Comparative Analysis
Priyanka Kargupta, Ishika Agarwal, Tal August, Jiawei Han
•
Feb 20, 2025
•
6
2
EgoSpeak : Apprendre quand parler pour les agents conversationnels égocentriques en environnement réel
EgoSpeak: Learning When to Speak for Egocentric Conversational Agents in the Wild
Junhyeok Kim, Min Soo Kim, Jiwan Chung, Jungbin Cho, Jisoo Kim, Sungwoong Kim, Gyeongbo Sim, Youngjae Yu
•
Feb 17, 2025
•
6
2
Les agents superintelligents présentent des risques catastrophiques : l'IA scientifique peut-elle offrir une voie plus sûre ?
Superintelligent Agents Pose Catastrophic Risks: Can Scientist AI Offer a Safer Path?
Yoshua Bengio, Michael Cohen, Damiano Fornasiere, Joumana Ghosn, Pietro Greiner, Matt MacDermott, Sören Mindermann, Adam Oberman, Jesse Richardson, Oliver Richardson, Marc-Antoine Rondeau, Pierre-Luc St-Charles, David Williams-King
•
Feb 21, 2025
•
5
2
mStyleDistance : Représentations stylistiques multilingues et leur évaluation
mStyleDistance: Multilingual Style Embeddings and their Evaluation
Justin Qiu, Jiacheng Zhu, Ajay Patel, Marianna Apidianaki, Chris Callison-Burch
•
Feb 21, 2025
•
3
2
CrossOver : Alignement intermodal de scènes 3D
CrossOver: 3D Scene Cross-Modal Alignment
Sayan Deb Sarkar, Ondrej Miksik, Marc Pollefeys, Daniel Barath, Iro Armeni
•
Feb 20, 2025
•
3
3
Les PLDR-LLMs apprennent un opérateur tensoriel généralisable capable de remplacer leur propre réseau de neurones profond lors de l'inférence.
PLDR-LLMs Learn A Generalizable Tensor Operator That Can Replace Its Own Deep Neural Net At Inference
Burc Gokden
•
Feb 19, 2025
•
3
2
WHAC : Humains et Caméras ancrés dans le monde
WHAC: World-grounded Humans and Cameras
Wanqi Yin, Zhongang Cai, Ruisi Wang, Fanzhou Wang, Chen Wei, Haiyi Mei, Weiye Xiao, Zhitao Yang, Qingping Sun, Atsushi Yamashita, Ziwei Liu, Lei Yang
•
Mar 19, 2024
•
3
2
Diagnostic différentiel des maladies rares à grande échelle avec les modèles de langage étendus : De l'actinomycose abdominale à la maladie de Wilson
Rare Disease Differential Diagnosis with Large Language Models at Scale: From Abdominal Actinomycosis to Wilson's Disease
Elliot Schumacher, Dhruv Naik, Anitha Kannan
•
Feb 20, 2025
•
2
2
Évaluation comparative des LLM pour les sciences politiques : une perspective des Nations Unies
Benchmarking LLMs for Political Science: A United Nations Perspective
Yueqing Liang, Liangwei Yang, Chen Wang, Congying Xia, Rui Meng, Xiongxiao Xu, Haoran Wang, Ali Payani, Kai Shu
•
Feb 19, 2025
•
2
2
Apprendre à découvrir des éléments régulateurs pour la prédiction de l'expression génique
Learning to Discover Regulatory Elements for Gene Expression Prediction
Xingyu Su, Haiyang Yu, Degui Zhi, Shuiwang Ji
•
Feb 19, 2025
•
2
2
UPCORE : Sélection de Coreset Préservant l'Utilité pour un Désapprentissage Équilibré
UPCORE: Utility-Preserving Coreset Selection for Balanced Unlearning
Vaidehi Patil, Elias Stengel-Eskin, Mohit Bansal
•
Feb 20, 2025
•
1
2
JL1-CD : Un nouveau benchmark pour la détection de changements en télédétection et un cadre robuste de distillation de connaissances multi-enseignants
JL1-CD: A New Benchmark for Remote Sensing Change Detection and a Robust Multi-Teacher Knowledge Distillation Framework
Ziyuan Liu, Ruifei Zhu, Long Gao, Yuanxiu Zhou, Jingyu Ma, Yuantao Gu
•
Feb 19, 2025
•
1
2
Au-delà du "Non" : Quantifier la Sur-Réticence de l'IA et les Limites de l'Attachement Émotionnel
Beyond No: Quantifying AI Over-Refusal and Emotional Attachment Boundaries
David Noever, Grant Rosario
•
Feb 20, 2025
•
0
3