ChatPaper.aiChatPaper.ai
Inicio

arXiv

HuggingFace

PreciosCuentaEspacio de trabajo

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

Artículos de Investigación en IA Diarios

Artículos de investigación en IA seleccionados diariamente con traducciones

TabSTAR: Un Modelo Tabular Fundamental con Representaciones Semánticamente Conscientes del Objetivo
TabSTAR: A Foundation Tabular Model With Semantically Target-Aware Representations

Alan Arazi, Eilam Shapira, Roi Reichart•May 23, 2025•1034

QwenLong-L1: Hacia Modelos de Razonamiento a Gran Escala con Contexto Extendido mediante Aprendizaje por Refuerzo
QwenLong-L1: Towards Long-Context Large Reasoning Models with Reinforcement Learning

Fanqi Wan, Weizhou Shen, Shengyi Liao, Yingcheng Shi, Chenliang Li, Ziyi Yang, Ji Zhang, Fei Huang, Jingren Zhou, Ming Yan•May 23, 2025•753

Distilación de Agentes de Modelos de Lenguaje Grande en Modelos Pequeños con Herramientas de Recuperación y Código
Distilling LLM Agent into Small Models with Retrieval and Code Tools

Minki Kang, Jongwon Jeong, Seanie Lee, Jaewoong Cho, Sung Ju Hwang•May 23, 2025•715

Quartet: El entrenamiento nativo en FP4 puede ser óptimo para modelos de lenguaje grandes
Quartet: Native FP4 Training Can Be Optimal for Large Language Models

Roberto L. Castro, Andrei Panferov, Soroush Tabesh, Oliver Sieberling, Jiale Chen, Mahdi Nikdan, Saleh Ashkboos, Dan Alistarh•May 20, 2025•702

El Modelo de Razonamiento es Obstinado: Diagnóstico de la Anulación de Instrucciones en Modelos de Razonamiento
Reasoning Model is Stubborn: Diagnosing Instruction Overriding in Reasoning Models

Doohyuk Jang, Yoonjeon Kim, Chanjae Park, Hyun Ryu, Eunho Yang•May 22, 2025•592

Un RL para Verlos Todos: Aprendizaje por Refuerzo Visual Triple Unificado
One RL to See Them All: Visual Triple Unified Reinforcement Learning

Yan Ma, Linge Du, Xuyang Shen, Shaoxiang Chen, Pengfei Li, Qibing Ren, Lizhuang Ma, Yuchao Dai, Pengfei Liu, Junjie Yan•May 23, 2025•552

PhyX: ¿Tu modelo tiene la "inteligencia" para el razonamiento físico?
PhyX: Does Your Model Have the "Wits" for Physical Reasoning?

Hui Shen, Taiqiang Wu, Qi Han, Yunta Hsieh, Jizhou Wang, Yuyue Zhang, Yuxin Cheng, Zijian Hao, Yuansheng Ni, Xin Wang, Zhongwei Wan, Kai Zhang, Wendong Xu, Jing Xiong, Ping Luo, Wenhu Chen, Chaofan Tao, Zhuoqing Mao, Ngai Wong•May 21, 2025•474

QwenLong-CPRS: Hacia LLMs infinitas con Optimización Dinámica de Contexto
QwenLong-CPRS: Towards infty-LLMs with Dynamic Context Optimization

Weizhou Shen, Chenliang Li, Fanqi Wan, Shengyi Liao, Shaopeng Lai, Bo Zhang, Yingcheng Shi, Yuning Wu, Gang Fu, Zhansheng Li, Bin Yang, Ji Zhang, Fei Huang, Jingren Zhou, Ming Yan•May 23, 2025•393

Escalado de la Generación de Imágenes y Videos mediante Búsqueda Evolutiva en Tiempo de Prueba
Scaling Image and Video Generation via Test-Time Evolutionary Search

Haoran He, Jiajun Liang, Xintao Wang, Pengfei Wan, Di Zhang, Kun Gai, Ling Pan•May 23, 2025•382

MOOSE-Chem3: Hacia la Clasificación de Hipótesis Guiada por Experimentos mediante Retroalimentación de Simulaciones Experimentales
MOOSE-Chem3: Toward Experiment-Guided Hypothesis Ranking via Simulated Experimental Feedback

Wanhao Liu, Zonglin Yang, Jue Wang, Lidong Bing, Di Zhang, Dongzhan Zhou, Yuqiang Li, Houqiang Li, Erik Cambria, Wanli Ouyang•May 23, 2025•293

El modelo ya conoce el mejor ruido: selección bayesiana activa de ruido mediante atención en modelos de difusión de video.
Model Already Knows the Best Noise: Bayesian Active Noise Selection via Attention in Video Diffusion Model

Kwanyoung Kim, Sanghyun Kim•May 23, 2025•293

VeriThinker: Aprender a Verificar Hace Eficiente el Modelo de Razonamiento
VeriThinker: Learning to Verify Makes Reasoning Model Efficient

Zigeng Chen, Xinyin Ma, Gongfan Fang, Ruonan Yu, Xinchao Wang•May 23, 2025•232

Los clasificadores de difusión comprenden la composicionalidad, pero con ciertas condiciones.
Diffusion Classifiers Understand Compositionality, but Conditions Apply

Yujin Jeong, Arnas Uselis, Seong Joon Oh, Anna Rohrbach•May 23, 2025•183

AudioTrust: Evaluación de la Confiabilidad Multifacética de los Modelos de Lenguaje de Gran Escala en Audio
AudioTrust: Benchmarking the Multifaceted Trustworthiness of Audio Large Language Models

Kai Li, Can Shen, Yile Liu, Jirui Han, Kelong Zheng, Xuechao Zou, Zhe Wang, Xingjian Du, Shun Zhang, Hanjun Luo, Yingbin Jin, Xinxin Xing, Ziyang Ma, Yue Liu, Xiaojun Jia, Yifan Zhang, Junfeng Fang, Kun Wang, Yibo Yan, Haoyang Li, Yiming Li, Xiaobin Zhuang, Yang Liu, Haibo Hu, Zhuo Chen, Zhizheng Wu, Xiaolin Hu, Eng-Siong Chng, XiaoFeng Wang, Wenyuan Xu, Wei Dong, Xinfeng Li•May 22, 2025•172

Direct3D-S2: Generación 3D a escala gigante simplificada con atención espacial dispersa
Direct3D-S2: Gigascale 3D Generation Made Easy with Spatial Sparse Attention

Shuang Wu, Youtian Lin, Feihu Zhang, Yifei Zeng, Yikang Yang, Yajie Bao, Jiachen Qian, Siyu Zhu, Philip Torr, Xun Cao, Yao Yao•May 23, 2025•162

Posición de Incertidumbre: Un Estudio Translingüístico del Sesgo Posicional en Modelos de Lenguaje a Gran Escala
Position of Uncertainty: A Cross-Linguistic Study of Positional Bias in Large Language Models

Menschikov Mikhail, Alexander Kharitonov, Maiia Kotyga, Vadim Porvatov, Anna Zhukovskaya, David Kagramanyan, Egor Shvetsov, Evgeny Burnaev•May 22, 2025•162

s3: No necesitas tantos datos para entrenar un agente de búsqueda mediante RL
s3: You Don't Need That Much Data to Train a Search Agent via RL

Pengcheng Jiang, Xueqiang Xu, Jiacheng Lin, Jinfeng Xiao, Zifeng Wang, Jimeng Sun, Jiawei Han•May 20, 2025•152

FullFront: Evaluación de MLLMs a lo largo de todo el flujo de trabajo de ingeniería en el front-end
FullFront: Benchmarking MLLMs Across the Full Front-End Engineering Workflow

Haoyu Sun, Huichen Will Wang, Jiawei Gu, Linjie Li, Yu Cheng•May 23, 2025•142

Optimización de Políticas Aumentada por Pensamiento: Conectando la Guía Externa con las Capacidades Internas
Thought-Augmented Policy Optimization: Bridging External Guidance and Internal Capabilities

Jinyang Wu, Chonghua Liao, Mingkuan Feng, Shuai Zhang, Zhengqi Wen, Pengpeng Shao, Huazhe Xu, Jianhua Tao•May 21, 2025•142

Time-R1: Hacia un razonamiento temporal integral en los LLM
Time-R1: Towards Comprehensive Temporal Reasoning in LLMs

Zijia Liu, Peixuan Han, Haofei Yu, Haoru Li, Jiaxuan You•May 16, 2025•143

Enseñando con mentiras: DPO de currículo sobre negativos sintéticos para la detección de alucinaciones
Teaching with Lies: Curriculum DPO on Synthetic Negatives for Hallucination Detection

Shrey Pandit, Ashwin Vinod, Liu Leqi, Ying Ding•May 23, 2025•132

Noches Despejadas: Hacia la Restauración de Imágenes Nocturnas en Condiciones Meteorológicas Diversas
Clear Nights Ahead: Towards Multi-Weather Nighttime Image Restoration

Yuetong Liu, Yunqiu Xu, Yang Wei, Xiuli Bi, Bin Xiao•May 22, 2025•112

Speechless: Entrenamiento de Instrucción de Habla Sin Habla para Lenguajes de Bajos Recursos
Speechless: Speech Instruction Training Without Speech for Low Resource Languages

Alan Dao, Dinh Bach Vu, Huy Hoang Ha, Tuan Le Duc Anh, Shreyas Gopal, Yue Heng Yeo, Warren Keng Hoong Low, Eng Siong Chng, Jia Qi Yip•May 23, 2025•102

RBench-V: Una Evaluación Primaria para Modelos de Razonamiento Visual con Salidas Multimodales
RBench-V: A Primary Assessment for Visual Reasoning Models with Multi-modal Outputs

Meng-Hao Guo, Xuanyu Chu, Qianrui Yang, Zhe-Han Mo, Yiqing Shen, Pei-lin Li, Xinjie Lin, Jinnian Zhang, Xin-Sheng Chen, Yi Zhang, Kiyohiro Nakayama, Zhengyang Geng, Houwen Peng, Han Hu, Shi-Nin Hu•May 22, 2025•103

Enseñando a los Modelos de Lenguaje de Gran Escala a Mantener la Fidelidad Contextual mediante Tareas Sintéticas y Aprendizaje por Refuerzo
Teaching Large Language Models to Maintain Contextual Faithfulness via Synthetic Tasks and Reinforcement Learning

Shuzheng Si, Haozhe Zhao, Cheng Gao, Yuzhuo Bai, Zhitong Wang, Bofei Gao, Kangyang Luo, Wenhao Li, Yufei Huang, Gang Chen, Fanchao Qi, Minjia Zhang, Baobao Chang, Maosong Sun•May 22, 2025•105

Trinity-RFT: Un Marco General y Unificado para el Ajuste Fino por Refuerzo de Modelos de Lenguaje de Gran Escala
Trinity-RFT: A General-Purpose and Unified Framework for Reinforcement Fine-Tuning of Large Language Models

Xuchen Pan, Yanxi Chen, Yushuo Chen, Yuchang Sun, Daoyuan Chen, Wenhao Zhang, Yuexiang Xie, Yilun Huang, Yilei Zhang, Dawei Gao, Yaliang Li, Bolin Ding, Jingren Zhou•May 23, 2025•92

ScanBot: Hacia el Escaneo Inteligente de Superficies en Sistemas Robóticos Corporizados
ScanBot: Towards Intelligent Surface Scanning in Embodied Robotic Systems

Zhiling Chen, Yang Zhang, Fardin Jalil Piran, Qianyu Zhou, Jiong Tang, Farhad Imani•May 22, 2025•92

¿Son seguros los modelos de visión y lenguaje en entornos reales? Un estudio de referencia basado en memes
Are Vision-Language Models Safe in the Wild? A Meme-Based Benchmark Study

DongGeon Lee, Joonwon Jang, Jihae Jeong, Hwanjo Yu•May 21, 2025•82

RL con Datos Sintéticos: La Definición de la Tarea es Todo lo que Necesitas
Synthetic Data RL: Task Definition Is All You Need

Yiduo Guo, Zhen Guo, Chuanwei Huang, Zi-Ang Wang, Zekai Zhang, Haofei Yu, Huishuai Zhang, Yikang Shen•May 18, 2025•82

¡BailamosJuntos! Generación de Video Interactivo Multipersona con Preservación de Identidad
DanceTogether! Identity-Preserving Multi-Person Interactive Video Generation

Junhao Chen, Mingjin Chen, Jianjin Xu, Xiang Li, Junting Dong, Mingze Sun, Puhua Jiang, Hongxiang Li, Yuhang Yang, Hao Zhao, Xiaoxiao Long, Ruqi Huang•May 23, 2025•62

RePrompt: Reprompting Aumentado con Razonamiento para la Generación de Texto a Imagen mediante Aprendizaje por Refuerzo
RePrompt: Reasoning-Augmented Reprompting for Text-to-Image Generation via Reinforcement Learning

Mingrui Wu, Lu Wang, Pu Zhao, Fangkai Yang, Jianjin Zhang, Jianfeng Liu, Yuefeng Zhan, Weihao Han, Hao Sun, Jiayi Ji, Xiaoshuai Sun, Qingwei Lin, Weiwei Deng, Dongmei Zhang, Feng Sun, Qi Zhang, Rongrong Ji•May 23, 2025•62

Transformer Copilot: Aprendiendo del Registro de Errores en el Ajuste Fino de Modelos de Lenguaje de Gran Escala
Transformer Copilot: Learning from The Mistake Log in LLM Fine-tuning

Jiaru Zou, Yikun Ban, Zihao Li, Yunzhe Qi, Ruizhong Qiu, Ling Yang, Jingrui He•May 22, 2025•62

Sobre el Diseño de Algoritmos de Gradiente de Política Regularizados con KL para el Razonamiento en Modelos de Lenguaje de Gran Escala
On the Design of KL-Regularized Policy Gradient Algorithms for LLM Reasoning

Yifan Zhang, Yifeng Liu, Huizhuo Yuan, Yang Yuan, Quanquan Gu, Andrew C Yao•May 23, 2025•52

Entrenamiento Interactivo Posterior para Modelos de Visión-Lenguaje-Acción
Interactive Post-Training for Vision-Language-Action Models

Shuhan Tan, Kairan Dou, Yue Zhao, Philipp Krähenbühl•May 22, 2025•52

ReflAct: Toma de Decisiones Fundamentada en el Mundo para Agentes de LLM mediante Reflexión sobre el Estado Objetivo
ReflAct: World-Grounded Decision Making in LLM Agents via Goal-State Reflection

Jeonghye Kim, Sojeong Rhee, Minbeom Kim, Dohyung Kim, Sangmook Lee, Youngchul Sung, Kyomin Jung•May 21, 2025•52

Los modelos de lenguaje a gran escala aprenden implícitamente a ver y escuchar simplemente leyendo.
Large Language Models Implicitly Learn to See and Hear Just By Reading

Prateek Verma, Mert Pilanci•May 20, 2025•53

Búsqueda Guiada por Valores para un Razonamiento Eficiente en Cadena de Pensamiento
Value-Guided Search for Efficient Chain-of-Thought Reasoning

Kaiwen Wang, Jin Peng Zhou, Jonathan Chang, Zhaolin Gao, Nathan Kallus, Kianté Brantley, Wen Sun•May 23, 2025•42

No todos los modelos son adecuados para la descarga experta: Sobre la consistencia del enrutamiento local en modelos de mezcla de expertos
Not All Models Suit Expert Offloading: On Local Routing Consistency of Mixture-of-Expert Models

Jingcong Liang, Siyuan Wang, Miren Tian, Yitong Li, Duyu Tang, Zhongyu Wei•May 21, 2025•32

¡Mantén la Seguridad! Evaluación de la Preservación de Políticas de Seguridad en Contextos de Modelos de Lenguaje de Gran Escala frente a Ataques Indirectos en Respuestas a Preguntas
Keep Security! Benchmarking Security Policy Preservation in Large Language Model Contexts Against Indirect Attacks in Question Answering

Hwan Chang, Yumin Kim, Yonghyun Jun, Hwanhee Lee•May 21, 2025•32

Revisitando las Conexiones Residuales: Actualizaciones Ortogonales para Redes Profundas Estables y Eficientes
Revisiting Residual Connections: Orthogonal Updates for Stable and Efficient Deep Networks

Giyeong Oh, Woohyun Cho, Siyeol Kim, Suhwan Choi, Younjae Yu•May 17, 2025•32

FREESON: Razonamiento Aumentado por Recuperación sin Recuperador mediante MCTS de Travesía de Corpus
FREESON: Retriever-Free Retrieval-Augmented Reasoning via Corpus-Traversing MCTS

Chaeeun Kim, Seungone Kim•May 22, 2025•22

Mejorando el razonamiento de los LLM mediante la escritura dinámica de notas para preguntas complejas de respuesta
Augmenting LLM Reasoning with Dynamic Notes Writing for Complex QA

Rishabh Maheshwary, Masoud Hashemi, Khyati Mahajan, Shiva Krishna Reddy Malay, Sai Rajeswar, Sathwik Tejaswi Madhusudhan, Spandana Gella, Vikas Yadav•May 22, 2025•22

NOVER: Entrenamiento Incentivado para Modelos de Lenguaje mediante Aprendizaje por Refuerzo sin Verificador
NOVER: Incentive Training for Language Models via Verifier-Free Reinforcement Learning

Wei Liu, Siya Qi, Xinyu Wang, Chen Qian, Yali Du, Yulan He•May 21, 2025•25

TIME: Un punto de referencia multinivel para el razonamiento temporal de los LLM en escenarios del mundo real
TIME: A Multi-level Benchmark for Temporal Reasoning of LLMs in Real-World Scenarios

Shaohang Wei, Wei Li, Feifan Song, Wen Luo, Tianyi Zhuang, Haochen Tan, Zhijiang Guo, Houfeng Wang•May 19, 2025•22

NileChat: Hacia Modelos de Lenguaje de Gran Escala Lingüísticamente Diversos y Culturalmente Conscientes para Comunidades Locales
NileChat: Towards Linguistically Diverse and Culturally Aware LLMs for Local Communities

Abdellah El Mekki, Houdaifa Atou, Omer Nacar, Shady Shehata, Muhammad Abdul-Mageed•May 23, 2025•12

FuxiMT: Esparcimiento de Modelos de Lenguaje a Gran Escala para Traducción Automática Multilingüe Centrada en el Chino
FuxiMT: Sparsifying Large Language Models for Chinese-Centric Multilingual Machine Translation

Shaolin Zhu, Tianyu Dong, Bo Li, Deyi Xiong•May 20, 2025•12

Reordenamiento Universal de Secuencias Biológicas para Mejorar la Secuenciación de Novo de Péptidos
Universal Biological Sequence Reranking for Improved De Novo Peptide Sequencing

Zijie Qiu, Jiaqi Wei, Xiang Zhang, Sheng Xu, Kai Zou, Zhi Jin, Zhiqiang Gao, Nanqing Dong, Siqi Sun•May 23, 2025•02