ChatPaper.aiChatPaper.ai
Accueil

arXiv

HuggingFace

TarifsCompteEspace de travail

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

Articles de Recherche en IA Quotidiens

Articles de recherche en IA sélectionnés quotidiennement avec traductions

Mutarjim : Faire progresser la traduction bidirectionnelle arabe-anglais avec un petit modèle de langage
Mutarjim: Advancing Bidirectional Arabic-English Translation with a Small Language Model

Khalil Hennara, Muhammad Hreden, Mohamed Motaism Hamed, Zeina Aldallal, Sara Chrouf, Safwan AlModhayan•May 23, 2025•1996

Passer de l'efficacité de l'IA centrée sur le modèle à la compression centrée sur les données
Shifting AI Efficiency From Model-Centric to Data-Centric Compression

Xuyang Liu, Zichen Wen, Shaobo Wang, Junjie Chen, Zhishan Tao, Yubo Wang, Xiangqi Jin, Chang Zou, Yiyu Wang, Chenfei Liao, Xu Zheng, Honggang Chen, Weijia Li, Xuming Hu, Conghui He, Linfeng Zhang•May 25, 2025•1334

Alchimiste : Transformer les données publiques de texte en image en or génératif
Alchemist: Turning Public Text-to-Image Data into Generative Gold

Valerii Startsev, Alexander Ustyuzhanin, Alexey Kirillov, Dmitry Baranchuk, Sergey Kastryulin•May 25, 2025•632

BizFinBench : Un benchmark financier réel axé sur les entreprises pour l'évaluation des modèles de langage de grande taille (LLM)
BizFinBench: A Business-Driven Real-World Financial Benchmark for Evaluating LLMs

Guilong Lu, Xuntao Guo, Rongjunchen Zhang, Wenqiao Zhu, Ji Liu•May 26, 2025•594

PATS : Commutation Adaptative au Niveau Processus du Mode de Pensée
PATS: Process-Level Adaptive Thinking Mode Switching

Yi Wang, Junxiao Liu, Shimao Zhang, Jiajun Chen, Shujian Huang•May 25, 2025•452

Les agents incarnés à la rencontre de la personnalisation : exploration de l'utilisation de la mémoire pour une assistance personnalisée
Embodied Agents Meet Personalization: Exploring Memory Utilization for Personalized Assistance

Taeyoon Kwon, Dongwook Choi, Sunghwan Kim, Hyojun Kim, Seungjun Moon, Beong-woo Kwak, Kuan-Hao Huang, Jinyoung Yeo•May 22, 2025•432

ARM : Modèle de Raisonnement Adaptatif
ARM: Adaptive Reasoning Model

Siye Wu, Jian Xie, Yikai Zhang, Aili Chen, Kai Zhang, Yu Su, Yanghua Xiao•May 26, 2025•414

Enigmata : Mise à l'échelle du raisonnement logique dans les grands modèles de langage grâce à des énigmes synthétiques vérifiables
Enigmata: Scaling Logical Reasoning in Large Language Models with Synthetic Verifiable Puzzles

Jiangjie Chen, Qianyu He, Siyu Yuan, Aili Chen, Zhicheng Cai, Weinan Dai, Hongli Yu, Qiying Yu, Xuefeng Li, Jiaze Chen, Hao Zhou, Mingxuan Wang•May 26, 2025•371

Décryptage du raisonnement des LLM assisté par trajectoire : une perspective d'optimisation
Deciphering Trajectory-Aided LLM Reasoning: An Optimization Perspective

Junnan Liu, Hongwei Liu, Linchen Xiao, Shudong Liu, Taolin Zhang, Zihan Ma, Songyang Zhang, Kai Chen•May 26, 2025•362

Signaux substituts issus du format et de la longueur : Apprentissage par renforcement pour la résolution de problèmes mathématiques sans réponses de référence
Surrogate Signals from Format and Length: Reinforcement Learning for Solving Mathematical Problems without Ground Truth Answers

Rihui Xin, Han Liu, Zecheng Wang, Yupeng Zhang, Dianbo Sui, Xiaolin Hu, Bingning Wang•May 26, 2025•292

B-score : Détection des biais dans les grands modèles de langage grâce à l'historique des réponses
B-score: Detecting biases in large language models using response history

An Vo, Mohammad Reza Taesiri, Daeyoung Kim, Anh Totti Nguyen•May 24, 2025•282

Flex-Judge : Penser une fois, juger partout
Flex-Judge: Think Once, Judge Anywhere

Jongwoo Ko, Sungnyun Kim, Sungwoo Cho, Se-Young Yun•May 24, 2025•252

MOOSE-Chem2 : Exploration des limites des LLM dans la découverte d’hypothèses scientifiques à granularité fine via une recherche hiérarchique
MOOSE-Chem2: Exploring LLM Limits in Fine-Grained Scientific Hypothesis Discovery via Hierarchical Search

Zonglin Yang, Wanhao Liu, Ben Gao, Yujie Liu, Wei Li, Tong Xie, Lidong Bing, Wanli Ouyang, Erik Cambria, Dongzhan Zhou•May 25, 2025•242

Apprendre à raisonner sans récompenses externes
Learning to Reason without External Rewards

Xuandong Zhao, Zhewei Kang, Aosong Feng, Sergey Levine, Dawn Song•May 26, 2025•232

Les MLLM peuvent-elles me guider chez moi ? Une étude comparative sur le raisonnement visuel granulaire à partir de cartes de transport
Can MLLMs Guide Me Home? A Benchmark Study on Fine-Grained Visual Reasoning from Transit Maps

Sicheng Feng, Song Wang, Shuyi Ouyang, Lingdong Kong, Zikai Song, Jianke Zhu, Huan Wang, Xinchao Wang•May 24, 2025•233

Alignement de Sécurité à Vie pour les Modèles de Langage
Lifelong Safety Alignment for Language Models

Haoyu Wang, Zeyu Qin, Yifei Zhao, Chao Du, Min Lin, Xueqian Wang, Tianyu Pang•May 26, 2025•221

Jodi : Unification de la génération visuelle et de la compréhension par modélisation conjointe
Jodi: Unification of Visual Generation and Understanding via Joint Modeling

Yifeng Xu, Zhenliang He, Meina Kan, Shiguang Shan, Xilin Chen•May 25, 2025•202

StructEval : Évaluation des capacités des LLM à générer des sorties structurelles
StructEval: Benchmarking LLMs' Capabilities to Generate Structural Outputs

Jialin Yang, Dongfu Jiang, Lipeng He, Sherman Siu, Yuxuan Zhang, Disen Liao, Zhuofeng Li, Huaye Zeng, Yiming Jia, Haozhe Wang, Benjamin Schneider, Chi Ruan, Wentao Ma, Zhiheng Lyu, Yifei Wang, Yi Lu, Quy Duc Do, Ziyan Jiang, Ping Nie, Wenhu Chen•May 26, 2025•181

Le réglage fin par renforcement renforce les capacités de raisonnement des grands modèles de langage multimodaux.
Reinforcement Fine-Tuning Powers Reasoning Capability of Multimodal Large Language Models

Haoyuan Sun, Jiaqi Wu, Bo Xia, Yifu Luo, Yifei Zhao, Kai Qin, Xufei Lv, Tiantian Zhang, Yongzhe Chang, Xueqian Wang•May 24, 2025•183

REARANK : Agent de réordonnancement par raisonnement via apprentissage par renforcement
REARANK: Reasoning Re-ranking Agent via Reinforcement Learning

Le Zhang, Bo Wang, Xipeng Qiu, Siva Reddy, Aishwarya Agrawal•May 26, 2025•172

ModernGBERT : Modèle encodeur de 1 milliard de paramètres exclusivement en allemand, entraîné à partir de zéro
ModernGBERT: German-only 1B Encoder Model Trained from Scratch

Anton Ehrmanntraut, Julia Wunderle, Jan Pfister, Fotis Jannidis, Andreas Hotho•May 19, 2025•172

Pont de Markov discret
Discrete Markov Bridge

Hengli Li, Yuxuan Wang, Song-Chun Zhu, Ying Nian Wu, Zilong Zheng•May 26, 2025•162

Omni-R1 : Apprentissage par renforcement pour le raisonnement omnimodal via une collaboration à deux systèmes
Omni-R1: Reinforcement Learning for Omnimodal Reasoning via Two-System Collaboration

Hao Zhong, Muzhi Zhu, Zongze Du, Zheng Huang, Canyu Zhao, Mingyu Liu, Wen Wang, Hao Chen, Chunhua Shen•May 26, 2025•151

Quels attributs de données stimulent le raisonnement mathématique et la programmation ? Une investigation via les fonctions d'influence
Which Data Attributes Stimulate Math and Code Reasoning? An Investigation via Influence Functions

Siqi Kou, Qingyuan Tian, Hanwen Xu, Zihao Zeng, Zhijie Deng•May 26, 2025•151

Neurone Hybride-MPM pour des Simulations de Fluides Interactives en Temps Réel
Hybrid Neural-MPM for Interactive Fluid Simulations in Real-Time

Jingxuan Xu, Hong Huang, Chuhang Zou, Manolis Savva, Yunchao Wei, Wuyang Chen•May 25, 2025•152

Codage Vibe vs. Codage Agentique : Fondamentaux et Implications Pratiques de l'IA Agentique
Vibe Coding vs. Agentic Coding: Fundamentals and Practical Implications of Agentic AI

Ranjan Sapkota, Konstantinos I. Roumeliotis, Manoj Karkee•May 26, 2025•142

Faire est mieux que parfait : Débloquer un raisonnement efficace par une décomposition structurée en tours multiples
Done Is Better than Perfect: Unlocking Efficient Reasoning by Structured Multi-Turn Decomposition

Zihao Zeng, Xuyao Huang, Boxiu Li, Hao Zhang, Zhijie Deng•May 26, 2025•132

Modélisation visuelle autorégressive économe en mémoire avec compression de cache KV adaptative à l'échelle
Memory-Efficient Visual Autoregressive Modeling with Scale-Aware KV Cache Compression

Kunjun Li, Zigeng Chen, Cheng-Yen Yang, Jenq-Neng Hwang•May 26, 2025•132

AdaCtrl : Vers un raisonnement adaptatif et contrôlable via une budgétisation sensible à la difficulté
AdaCtrl: Towards Adaptive and Controllable Reasoning via Difficulty-Aware Budgeting

Shijue Huang, Hongru Wang, Wanjun Zhong, Zhaochen Su, Jiazhan Feng, Bowen Cao, Yi R. Fung•May 24, 2025•132

La quête d'un raisonnement efficace : Un benchmark centré sur les données pour la distillation de CoT
The Quest for Efficient Reasoning: A Data-Centric Benchmark to CoT Distillation

Ruichen Zhang, Rana Muhammad Shahroz Khan, Zhen Tan, Dawei Li, Song Wang, Tianlong Chen•May 24, 2025•123

Apprentissage Contrastif par Négatifs Difficiles pour la Compréhension Géométrique Fine dans les Grands Modèles Multimodaux
Hard Negative Contrastive Learning for Fine-Grained Geometric Understanding in Large Multimodal Models

Kai Sun, Yushi Bai, Zhen Yang, Jiajie Zhang, Ji Qi, Lei Hou, Juanzi Li•May 26, 2025•111

Force Prompting : Les modèles de génération vidéo peuvent apprendre et généraliser des signaux de contrôle basés sur la physique
Force Prompting: Video Generation Models Can Learn and Generalize Physics-based Control Signals

Nate Gillman, Charles Herrmann, Michael Freeman, Daksh Aggarwal, Evan Luo, Deqing Sun, Chen Sun•May 26, 2025•112

G1 : Amélioration des capacités de perception et de raisonnement d'un modèle vision-langage via l'apprentissage par renforcement
G1: Bootstrapping Perception and Reasoning Abilities of Vision-Language Model via Reinforcement Learning

Liang Chen, Hongcheng Gao, Tianyu Liu, Zhiqi Huang, Flood Sung, Xinyu Zhou, Yuxin Wu, Baobao Chang•May 19, 2025•112

Raisonnement entrelacé pour les grands modèles de langage via l'apprentissage par renforcement
Interleaved Reasoning for Large Language Models via Reinforcement Learning

Roy Xie, David Qiu, Deepak Gopinath, Dong Lin, Yanchao Sun, Chong Wang, Saloni Potdar, Bhuwan Dhingra•May 26, 2025•103

WHISTRESS : Enrichissement des transcriptions par la détection de l'accentuation phrastique
WHISTRESS: Enriching Transcriptions with Sentence Stress Detection

Iddo Yosha, Dorin Shteyman, Yossi Adi•May 25, 2025•102

WINA : Activation Neuronale Informée par les Poids pour l'Accélération de l'Inférence des Grands Modèles de Langage
WINA: Weight Informed Neuron Activation for Accelerating Large Language Model Inference

Sihan Chen, Dan Zhao, Jongwoo Ko, Colby Banbury, Huiping Zhuang, Luming Liang, Tianyi Chen•May 26, 2025•92

De dizaines d'heures à des dizaines de milliers : mise à l'échelle de la rétro-traduction pour la reconnaissance vocale
From Tens of Hours to Tens of Thousands: Scaling Back-Translation for Speech Recognition

Tianduo Wang, Lu Xu, Wei Lu, Shanbo Cheng•May 22, 2025•92

MLR-Bench : Évaluation des agents d'IA dans la recherche ouverte en apprentissage automatique
MLR-Bench: Evaluating AI Agents on Open-Ended Machine Learning Research

Hui Chen, Miao Xiong, Yujie Lu, Wei Han, Ailin Deng, Yufei He, Jiaying Wu, Yibo Li, Yue Liu, Bryan Hooi•May 26, 2025•81

LLaDA 1.5 : Optimisation des préférences à variance réduite pour les modèles de langage à grande échelle basés sur la diffusion
LLaDA 1.5: Variance-Reduced Preference Optimization for Large Language Diffusion Models

Fengqi Zhu, Rongzhen Wang, Shen Nie, Xiaolu Zhang, Chunwei Wu, Jun Hu, Jun Zhou, Jianfei Chen, Yankai Lin, Ji-Rong Wen, Chongxuan Li•May 25, 2025•82

STAR-R1 : Raisonnement sur les Transformations Spatiales par Renforcement des LLMs Multimodaux
STAR-R1: Spatial TrAnsformation Reasoning by Reinforcing Multimodal LLMs

Zongzhao Li, Zongyang Ma, Mingze Li, Songyou Li, Yu Rong, Tingyang Xu, Ziqi Zhang, Deli Zhao, Wenbing Huang•May 21, 2025•82

InfantAgent-Next : Un agent généraliste multimodal pour l'interaction automatisée avec les ordinateurs
InfantAgent-Next: A Multimodal Generalist Agent for Automated Computer Interaction

Bin Lei, Weitai Kang, Zijian Zhang, Winson Chen, Xi Xie, Shan Zuo, Mimi Xie, Ali Payani, Mingyi Hong, Yan Yan, Caiwen Ding•May 16, 2025•82

Le Principe de Couverture : Un Cadre pour Comprendre la Généralisation Compositionnelle
The Coverage Principle: A Framework for Understanding Compositional Generalization

Hoyeon Chang, Jinho Park, Hanseul Cho, Sohee Yang, Miyoung Ko, Hyeonbin Hwang, Seungpil Won, Dohaeng Lee, Youbin Ahn, Minjoon Seo•May 26, 2025•71

Attaques robustes d'inférence d'appartenance sur des ensembles de données massifs et des modèles de langage de taille (modérément) importante
Strong Membership Inference Attacks on Massive Datasets and (Moderately) Large Language Models

Jamie Hayes, Ilia Shumailov, Christopher A. Choquette-Choo, Matthew Jagielski, George Kaissis, Katherine Lee, Milad Nasr, Sahra Ghalebikesabi, Niloofar Mireshghallah, Meenatchi Sundaram Mutu Selva Annamalai, Igor Shilov, Matthieu Meeus, Yves-Alexandre de Montjoye, Franziska Boenisch, Adam Dziedzic, A. Feder Cooper•May 24, 2025•72

Évaluations Dynamiques des Risques pour les Agents de Cybersécurité Offensive
Dynamic Risk Assessments for Offensive Cybersecurity Agents

Boyi Wei, Benedikt Stroebl, Jiacen Xu, Joie Zhang, Zhou Li, Peter Henderson•May 23, 2025•72

Accélération de l'apprentissage de Nash à partir de retours humains via la méthode de prox miroir
Accelerating Nash Learning from Human Feedback via Mirror Prox

Daniil Tiapkin, Daniele Calandriello, Denis Belomestny, Eric Moulines, Alexey Naumov, Kashif Rasul, Michal Valko, Pierre Menard•May 26, 2025•62

Repenser les critères d'échantillonnage en apprentissage par renforcement pour le raisonnement des LLM : une perspective d'alignement compétence-difficulté
Rethinking the Sampling Criteria in Reinforcement Learning for LLM Reasoning: A Competence-Difficulty Alignment Perspective

Deyang Kong, Qi Guo, Xiangyu Xi, Wei Wang, Jingang Wang, Xunliang Cai, Shikun Zhang, Wei Ye•May 23, 2025•62

Position : L'interprétabilité mécaniste devrait privilégier la cohérence des caractéristiques dans les SAE
Position: Mechanistic Interpretability Should Prioritize Feature Consistency in SAEs

Xiangchen Song, Aashiq Muhamed, Yujia Zheng, Lingjing Kong, Zeyu Tang, Mona T. Diab, Virginia Smith, Kun Zhang•May 26, 2025•51

Ne pas « trop réfléchir » au réordonnancement des passages : Le raisonnement est-il vraiment nécessaire ?
Don't "Overthink" Passage Reranking: Is Reasoning Truly Necessary?

Nour Jedidi, Yung-Sung Chuang, James Glass, Jimmy Lin•May 22, 2025•52

Une défense d'une simplicité embarrassante contre les attaques d'oblitération des LLM
An Embarrassingly Simple Defense Against LLM Abliteration Attacks

Harethah Abu Shairah, Hasan Abed Al Kader Hammoud, Bernard Ghanem, George Turkiyyah•May 25, 2025•42

Raisonnement Latent Hybride via Apprentissage par Renforcement
Hybrid Latent Reasoning via Reinforcement Learning

Zhenrui Yue, Bowen Jin, Huimin Zeng, Honglei Zhuang, Zhen Qin, Jinsung Yoon, Lanyu Shang, Jiawei Han, Dong Wang•May 24, 2025•42

Faire le lien entre l'apprentissage supervisé et l'apprentissage par renforcement dans le raisonnement mathématique
Bridging Supervised Learning and Reinforcement Learning in Math Reasoning

Huayu Chen, Kaiwen Zheng, Qinsheng Zhang, Ganqu Cui, Yin Cui, Haotian Ye, Tsung-Yi Lin, Ming-Yu Liu, Jun Zhu, Haoxiang Wang•May 23, 2025•42

GLEAM : Apprentissage d'une politique d'exploration généralisable pour la cartographie active dans des scènes intérieures complexes en 3D
GLEAM: Learning Generalizable Exploration Policy for Active Mapping in Complex 3D Indoor Scenes

Xiao Chen, Tai Wang, Quanyi Li, Tao Huang, Jiangmiao Pang, Tianfan Xue•May 26, 2025•31

Typologie des erreurs pour des récompenses plus intelligentes : Amélioration des modèles de récompense de processus grâce à une supervision hiérarchique prenant en compte les erreurs
Error Typing for Smarter Rewards: Improving Process Reward Models with Error-Aware Hierarchical Supervision

Tej Deep Pala, Panshul Sharma, Amir Zadeh, Chuan Li, Soujanya Poria•May 26, 2025•32

DoctorAgent-RL : Un système d'apprentissage par renforcement collaboratif multi-agent pour les dialogues cliniques multi-tours
DoctorAgent-RL: A Multi-Agent Collaborative Reinforcement Learning System for Multi-Turn Clinical Dialogue

Yichun Feng, Jiawei Wang, Lu Zhou, Yixue Li•May 26, 2025•32

Portes dérobées architecturales pour le vol de données intra-lot et la manipulation de l'inférence du modèle
Architectural Backdoors for Within-Batch Data Stealing and Model Inference Manipulation

Nicolas Küchler, Ivan Petrov, Conrad Grobler, Ilia Shumailov•May 23, 2025•32

UFT : Unification de l’Affinage Supervisé et par Renforcement
UFT: Unifying Supervised and Reinforcement Fine-Tuning

Mingyang Liu, Gabriele Farina, Asuman Ozdaglar•May 22, 2025•33

EquivPruner : Amélioration de l'efficacité et de la qualité dans la recherche basée sur les LLM via l'élagage d'actions
EquivPruner: Boosting Efficiency and Quality in LLM-Based Search via Action Pruning

Jiawei Liu, Qisi Chen, Jianshu Zhang, Quan Liu, Defu Lian•May 22, 2025•33

DiSA : Recuit des étapes de diffusion dans la génération d'images autoregressive
DiSA: Diffusion Step Annealing in Autoregressive Image Generation

Qinyu Zhao, Jaskirat Singh, Ming Xu, Akshay Asthana, Stephen Gould, Liang Zheng•May 26, 2025•21

Voir, c'est croire, mais jusqu'à quel point ? Une analyse approfondie de la calibration verbalisée dans les modèles vision-langage.
Seeing is Believing, but How Much? A Comprehensive Analysis of Verbalized Calibration in Vision-Language Models

Weihao Xuan, Qingcheng Zeng, Heli Qi, Junjue Wang, Naoto Yokoya•May 26, 2025•21

FLAME-MoE : Une Plateforme de Recherche Transparente de Bout en Bout pour les Modèles de Langage à Mélange d'Experts
FLAME-MoE: A Transparent End-to-End Research Platform for Mixture-of-Experts Language Models

Hao Kang, Zichun Yu, Chenyan Xiong•May 26, 2025•21

MMIG-Bench : Vers une évaluation complète et explicable des modèles de génération d'images multi-modales
MMIG-Bench: Towards Comprehensive and Explainable Evaluation of Multi-Modal Image Generation Models

Hang Hua, Ziyun Zeng, Yizhi Song, Yunlong Tang, Liu He, Daniel Aliaga, Wei Xiong, Jiebo Luo•May 26, 2025•22

L'esprit pragmatique des machines : Retracer l'émergence de la compétence pragmatique dans les modèles de langage à grande échelle
The Pragmatic Mind of Machines: Tracing the Emergence of Pragmatic Competence in Large Language Models

Kefan Yu, Qingcheng Zeng, Weihao Xuan, Wanxin Li, Jingyi Wu, Rob Voigt•May 24, 2025•22

InstructPart : Segmentation orientée tâche de parties avec raisonnement par instructions
InstructPart: Task-Oriented Part Segmentation with Instruction Reasoning

Zifu Wan, Yaqi Xie, Ce Zhang, Zhiqiu Lin, Zihan Wang, Simon Stepputtis, Deva Ramanan, Katia Sycara•May 23, 2025•22

TAGS : Un cadre généraliste-spécialiste pour les tests avec raisonnement et vérification augmentés par la recherche d'information
TAGS: A Test-Time Generalist-Specialist Framework with Retrieval-Augmented Reasoning and Verification

Jianghao Wu, Feilong Tang, Yulong Li, Ming Hu, Haochen Xue, Shoaib Jameel, Yutong Xie, Imran Razzak•May 23, 2025•22

Vers une évaluation holistique des grands modèles audio-langage : une étude approfondie
Towards Holistic Evaluation of Large Audio-Language Models: A Comprehensive Survey

Chih-Kai Yang, Neo S. Ho, Hung-yi Lee•May 21, 2025•22

EgoZero : Apprentissage robotique à partir de lunettes intelligentes
EgoZero: Robot Learning from Smart Glasses

Vincent Liu, Ademi Adeniji, Haotian Zhan, Raunaq Bhirangi, Pieter Abbeel, Lerrel Pinto•May 26, 2025•11

MOLE : Extraction et Validation des Métadonnées dans les Articles Scientifiques à l’Aide de Modèles de Langage (LLMs)
MOLE: Metadata Extraction and Validation in Scientific Papers Using LLMs

Zaid Alyafeai, Maged S. Al-Shaibani, Bernard Ghanem•May 26, 2025•11

La Naissance de la Connaissance : Caractéristiques Émergentes à Travers le Temps, l’Espace et l’Échelle dans les Modèles de Langage à Grande Échelle
The Birth of Knowledge: Emergent Features across Time, Space, and Scale in Large Language Models

Shashata Sawmya, Micah Adler, Nir Shavit•May 26, 2025•12

CASS : Transpilation de Nvidia vers AMD avec Données, Modèles et Benchmark
CASS: Nvidia to AMD Transpilation with Data, Models, and Benchmark

Ahmed Heakl, Sarim Hashmi, Gustavo Bertolo Stahl, Seung Hun Eddie Han, Salman Khan, Abdulrahman Mahmoud•May 22, 2025•12

Les vecteurs de pilotage textuels peuvent améliorer la compréhension visuelle dans les modèles de langage multimodaux de grande taille.
Textual Steering Vectors Can Improve Visual Understanding in Multimodal Large Language Models

Woody Haosheng Gan, Deqing Fu, Julian Asilis, Ollie Liu, Dani Yogatama, Vatsal Sharan, Robin Jia, Willie Neiswanger•May 20, 2025•12

Valeur Temporellement Abstraite Consciente des Options pour l'Apprentissage par Renforcement Hors Ligne Conditionné par des Objectifs
Option-aware Temporally Abstracted Value for Offline Goal-Conditioned Reinforcement Learning

Hongjoon Ahn, Heewoong Choi, Jisu Han, Taesup Moon•May 19, 2025•12