ChatPaper.ai
Ouvrir le menu
Accueil
Articles du Jour
arXiv
HuggingFace
Tarifs
Compte
Espace de travail
🇫🇷
Français
Loading...
•
•
•
•
•
•
•
•
•
•
Articles de Recherche en IA Quotidiens
Articles de recherche en IA sélectionnés quotidiennement avec traductions
March 26th, 2025
Modélisation vidéo autorégressive à long contexte avec prédiction d'image suivante
Long-Context Autoregressive Video Modeling with Next-Frame Prediction
Yuchao Gu, Weijia Mao, Mike Zheng Shou
•
Mar 25, 2025
•
72
2
Mise à l'échelle de la pré-formation visuelle à une résolution 4K
Scaling Vision Pre-Training to 4K Resolution
Baifeng Shi, Boyi Li, Han Cai, Yao Lu, Sifei Liu, Marco Pavone, Jan Kautz, Song Han, Trevor Darrell, Pavlo Molchanov, Hongxu Yin
•
Mar 25, 2025
•
40
2
Mise à l'échelle au moment de l'inférence pour les modèles de flux via la génération stochastique et le forçage budgétaire par roulement
Inference-Time Scaling for Flow Models via Stochastic Generation and Rollover Budget Forcing
Jaihoon Kim, Taehoon Yoon, Jisung Hwang, Minhyuk Sung
•
Mar 25, 2025
•
33
4
Exploration des hallucinations des grands modèles multimodaux dans la compréhension vidéo : Benchmark, analyse et atténuation
Exploring Hallucination of Large Multimodal Models in Video Understanding: Benchmark, Analysis and Mitigation
Hongcheng Gao, Jiashu Qu, Jingyi Tang, Baolong Bi, Yue Liu, Hongyu Chen, Li Liang, Li Su, Qingming Huang
•
Mar 25, 2025
•
31
4
CoMP : Pré-entraînement multimodal continu pour les modèles de base en vision
CoMP: Continual Multimodal Pre-training for Vision Foundation Models
Yitong Chen, Lingchen Meng, Wujian Peng, Zuxuan Wu, Yu-Gang Jiang
•
Mar 24, 2025
•
30
1
Pensez à deux fois : Améliorer le raisonnement des LLM par la mise à l'échelle de la réflexion multi-tours lors des tests
Think Twice: Enhancing LLM Reasoning by Scaling Multi-round Test-time Thinking
Xiaoyu Tian, Sitong Zhao, Haotian Wang, Shuaiting Chen, Yunjie Ji, Yiping Peng, Han Zhao, Xiangang Li
•
Mar 25, 2025
•
26
5
Détectez le faux : Détection d'images synthétiques basée sur des modèles multimodaux de grande taille avec explication des artefacts
Spot the Fake: Large Multimodal Model-Based Synthetic Image Detection with Artifact Explanation
Siwei Wen, Junyan Ye, Peilin Feng, Hengrui Kang, Zichen Wen, Yize Chen, Jiang Wu, Wenjun Wu, Conghui He, Weijia Li
•
Mar 19, 2025
•
20
3
MDocAgent : Un cadre multi-agent et multimodal pour la compréhension de documents
MDocAgent: A Multi-Modal Multi-Agent Framework for Document Understanding
Siwei Han, Peng Xia, Ruiyi Zhang, Tong Sun, Yun Li, Hongtu Zhu, Huaxiu Yao
•
Mar 18, 2025
•
19
2
ReSearch : Apprendre à raisonner par la recherche pour les LLM via l'apprentissage par renforcement
ReSearch: Learning to Reason with Search for LLMs via Reinforcement Learning
Mingyang Chen, Tianpeng Li, Haoze Sun, Yijie Zhou, Chenzheng Zhu, Fan Yang, Zenan Zhou, Weipeng Chen, Haofen Wang, Jeff Z. Pan, Wen Zhang, Huajun Chen
•
Mar 25, 2025
•
17
3
CoLLM : Un modèle de langage de grande taille pour la recherche d'images composées
CoLLM: A Large Language Model for Composed Image Retrieval
Chuong Huynh, Jinyu Yang, Ashish Tawari, Mubarak Shah, Son Tran, Raffay Hamid, Trishul Chilimbi, Abhinav Shrivastava
•
Mar 25, 2025
•
14
2
WikiAutoGen : Vers la génération d'articles de style Wikipédia en mode multi-modal
WikiAutoGen: Towards Multi-Modal Wikipedia-Style Article Generation
Zhongyu Yang, Jun Chen, Dannong Xu, Junjie Fei, Xiaoqian Shen, Liangbing Zhao, Chun-Mei Feng, Mohamed Elhoseiny
•
Mar 24, 2025
•
11
2
Super-résolution dans l'espace latent pour la génération d'images à plus haute résolution avec des modèles de diffusion
Latent Space Super-Resolution for Higher-Resolution Image Generation with Diffusion Models
Jinho Jeong, Sangmin Han, Jinwoo Kim, Seon Joo Kim
•
Mar 24, 2025
•
10
1
FullDiT : Modèle génératif vidéo multitâche fondé sur une attention complète
FullDiT: Multi-Task Video Generative Foundation Model with Full Attention
Xuan Ju, Weicai Ye, Quande Liu, Qiulin Wang, Xintao Wang, Pengfei Wan, Di Zhang, Kun Gai, Qiang Xu
•
Mar 25, 2025
•
8
2
DiffPortrait360 : Synthèse de portraits cohérents par diffusion pour la génération de vues à 360 degrés
DiffPortrait360: Consistent Portrait Diffusion for 360 View Synthesis
Yuming Gu, Phong Tran, Yujian Zheng, Hongyi Xu, Heyuan Li, Adilbek Karmanov, Hao Li
•
Mar 19, 2025
•
8
2
FirePlace : Affinements géométriques du raisonnement de bon sens des LLM pour le placement d'objets en 3D
FirePlace: Geometric Refinements of LLM Common Sense Reasoning for 3D Object Placement
Ian Huang, Yanan Bao, Karen Truong, Howard Zhou, Cordelia Schmid, Leonidas Guibas, Alireza Fathi
•
Mar 6, 2025
•
8
2
PhysTwin : Reconstruction et simulation basées sur la physique d'objets déformables à partir de vidéos
PhysTwin: Physics-Informed Reconstruction and Simulation of Deformable Objects from Videos
Hanxiao Jiang, Hao-Yu Hsu, Kaifeng Zhang, Hsin-Ni Yu, Shenlong Wang, Yunzhu Li
•
Mar 23, 2025
•
7
2
Réglage LookAhead : Des modèles de langage plus sûrs grâce à des aperçus partiels de réponses
LookAhead Tuning: Safer Language Models via Partial Answer Previews
Kangwei Liu, Mengru Wang, Yujie Luo, Lin Yuan, Mengshu Sun, Ningyu Zhang, Lei Liang, Zhiqiang Zhang, Jun Zhou, Huajun Chen
•
Mar 24, 2025
•
5
3
Développement efficace de modèles par fine-tuning de transfert
Efficient Model Development through Fine-tuning Transfer
Pin-Jie Lin, Rishab Balasubramanian, Fengyuan Liu, Nikhil Kandpal, Tu Vu
•
Mar 25, 2025
•
4
2
FRESA : Reconstruction par propagation avant d'avatars personnalisés avec squelette à partir de quelques images
FRESA:Feedforward Reconstruction of Personalized Skinned Avatars from Few Images
Rong Wang, Fabian Prada, Ziyan Wang, Zhongshi Jiang, Chengxiang Yin, Junxuan Li, Shunsuke Saito, Igor Santesteban, Javier Romero, Rohan Joshi, Hongdong Li, Jason Saragih, Yaser Sheikh
•
Mar 24, 2025
•
4
2
xKV : Décomposition SVD intercouches pour la compression du cache KV
xKV: Cross-Layer SVD for KV-Cache Compression
Chi-Chih Chang, Chien-Yu Lin, Yash Akhauri, Wei-Cheng Lin, Kai-Chiang Wu, Luis Ceze, Mohamed S. Abdelfattah
•
Mar 24, 2025
•
4
1
Flux d'appariement Gumbel-Softmax avec guidage direct pour la génération contrôlée de séquences biologiques
Gumbel-Softmax Flow Matching with Straight-Through Guidance for Controllable Biological Sequence Generation
Sophia Tang, Yinuo Zhang, Alexander Tong, Pranam Chatterjee
•
Mar 21, 2025
•
4
2
Base de référence solide : Suivi multi-drones via YOLOv12 avec BoT-SORT-ReID
Strong Baseline: Multi-UAV Tracking via YOLOv12 with BoT-SORT-ReID
Yu-Hsi Chen
•
Mar 21, 2025
•
4
5
Quand les mots surpassent la vision : les modèles de langage visuel peuvent s'améliorer par un entraînement textuel seul pour la prise de décision centrée sur l'humain
When Words Outperform Vision: VLMs Can Self-Improve Via Text-Only Training For Human-Centered Decision Making
Zhe Hu, Jing Li, Yu Yin
•
Mar 21, 2025
•
4
2
Vers un modèle de fondation unifié Copernicus pour la vision de la Terre
Towards a Unified Copernicus Foundation Model for Earth Vision
Yi Wang, Zhitong Xiong, Chenying Liu, Adam J. Stewart, Thomas Dujardin, Nikolaos Ioannis Bountos, Angelos Zavras, Franziska Gerken, Ioannis Papoutsis, Laura Leal-Taixé, Xiao Xiang Zhu
•
Mar 14, 2025
•
4
3
LLaVAction : évaluation et entraînement de modèles de langage multi-modaux de grande taille pour la reconnaissance d'actions
LLaVAction: evaluating and training multi-modal large language models for action recognition
Shaokai Ye, Haozhe Qi, Alexander Mathis, Mackenzie W. Mathis
•
Mar 24, 2025
•
3
2
Any6D : Estimation de pose 6D sans modèle pour des objets nouveaux
Any6D: Model-free 6D Pose Estimation of Novel Objects
Taeyeop Lee, Bowen Wen, Minjun Kang, Gyuree Kang, In So Kweon, Kuk-Jin Yoon
•
Mar 24, 2025
•
3
2
OpenCity3D : Que savent les modèles vision-langage des environnements urbains ?
OpenCity3D: What do Vision-Language Models know about Urban Environments?
Valentin Bieri, Marco Zamboni, Nicolas S. Blumer, Qingxuan Chen, Francis Engelmann
•
Mar 21, 2025
•
3
2
Les modèles vision-langage peuvent-ils répondre à des questions face à face dans le monde réel ?
Can Vision-Language Models Answer Face to Face Questions in the Real-World?
Reza Pourreza, Rishit Dagli, Apratim Bhattacharyya, Sunny Panchal, Guillaume Berger, Roland Memisevic
•
Mar 25, 2025
•
2
2
Surmonter l'inadéquation du vocabulaire : Modélisation du langage guidée par un enseignant indépendant du vocabulaire
Overcoming Vocabulary Mismatch: Vocabulary-agnostic Teacher Guided Language Modeling
Haebin Shin, Lei Ji, Xiao Liu, Yeyun Gong
•
Mar 24, 2025
•
2
2
Convolution Dynamique en Fréquence pour la Prédiction d'Images Denses
Frequency Dynamic Convolution for Dense Image Prediction
Linwei Chen, Lin Gu, Liang Li, Chenggang Yan, Ying Fu
•
Mar 24, 2025
•
2
2
LPOSS : Propagation de Labels sur les Patchs et Pixels pour la Segmentation Sémantique à Vocabulaire Ouvert
LPOSS: Label Propagation Over Patches and Pixels for Open-vocabulary Semantic Segmentation
Vladan Stojnić, Yannis Kalantidis, Jiří Matas, Giorgos Tolias
•
Mar 25, 2025
•
1
2
ST-VLM : Réglage des instructions cinématiques pour le raisonnement spatio-temporel dans les modèles vision-langage
ST-VLM: Kinematic Instruction Tuning for Spatio-Temporal Reasoning in Vision-Language Models
Dohwan Ko, Sihyeon Kim, Yumin Suh, Vijay Kumar B. G, Minseo Yoon, Manmohan Chandraker, Hyunwoo J. Kim
•
Mar 25, 2025
•
1
1
Co-SemDepth : Estimation rapide conjointe de la segmentation sémantique et de la profondeur sur des images aériennes
Co-SemDepth: Fast Joint Semantic Segmentation and Depth Estimation on Aerial Images
Yara AlaaEldin, Francesca Odone
•
Mar 23, 2025
•
0
2