ChatPaper.aiChatPaper.ai
Inicio

arXiv

HuggingFace

PreciosCuentaEspacio de trabajo

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

Artículos de Investigación en IA Diarios

Artículos de investigación en IA seleccionados diariamente con traducciones

Web-Shepherd: Avanzando en los PRM para el Refuerzo de Agentes Web
Web-Shepherd: Advancing PRMs for Reinforcing Web Agents

Hyungjoo Chae, Sunghwan Kim, Junhee Cho, Seungone Kim, Seungjun Moon, Gyeom Hwangbo, Dongha Lim, Minjin Kim, Yeonjun Hwang, Minju Gwak, Dongwook Choi, Minseok Kang, Gwanhoon Im, ByeongUng Cho, Hyojun Kim, Jun Hee Han, Taeyoon Kwon, Minju Kim, Beong-woo Kwak, Dongjin Kang, Jinyoung Yeo•May 21, 2025•864

MMaDA: Modelos de Lenguaje Multimodales de Difusión a Gran Escala
MMaDA: Multimodal Large Diffusion Language Models

Ling Yang, Ye Tian, Bowen Li, Xinchen Zhang, Ke Shen, Yunhai Tong, Mengdi Wang•May 21, 2025•643

Ley de Escalado para Entrenamiento Consciente de Cuantización
Scaling Law for Quantization-Aware Training

Mengzhao Chen, Chaoyi Zhang, Jing Liu, Yutao Zeng, Zeyue Xue, Zhiheng Liu, Yunshui Li, Jin Ma, Jie Huang, Xun Zhou, Ping Luo•May 20, 2025•592

UniVG-R1: Fundamentación Visual Universal Guiada por Razonamiento con Aprendizaje por Refuerzo
UniVG-R1: Reasoning Guided Universal Visual Grounding with Reinforcement Learning

Sule Bai, Mingxing Li, Yong Liu, Jing Tang, Haoji Zhang, Lei Sun, Xiangxiang Chu, Yansong Tang•May 20, 2025•465

Difusión frente a Modelos de Lenguaje Autoregresivos: Una Perspectiva desde los Embeddings de Texto
Diffusion vs. Autoregressive Language Models: A Text Embedding Perspective

Siyue Zhang, Yilun Zhao, Liyuan Geng, Arman Cohan, Anh Tuan Luu, Chen Zhao•May 21, 2025•442

Entrenamiento Eficiente de Agentes para el Uso de Computadoras
Efficient Agent Training for Computer Use

Yanheng He, Jiahe Jin, Pengfei Liu•May 20, 2025•372

Esta vez es diferente: Una perspectiva de observabilidad sobre los modelos fundacionales de series temporales
This Time is Different: An Observability Perspective on Time Series Foundation Models

Ben Cohen, Emaad Khwaja, Youssef Doubli, Salahidine Lemaachi, Chris Lettieri, Charles Masson, Hugo Miccinilli, Elise Ramé, Qiqi Ren, Afshin Rostamizadeh, Jean Ogier du Terrail, Anna-Monica Toon, Kan Wang, Stephan Xie, David Asker, Ameet Talwalkar, Othmane Abou-Amal•May 20, 2025•323

Aprende a razonar eficientemente con modelado de recompensas adaptativo basado en longitud
Learn to Reason Efficiently with Adaptive Length-based Reward Shaping

Wei Liu, Ruochen Zhou, Yiyun Deng, Yuzhen Huang, Junteng Liu, Yuntian Deng, Yizhe Zhang, Junxian He•May 21, 2025•281

Construcción de un Pueblo 3D a partir de una Única Imagen
Constructing a 3D Town from a Single Image

Kaizhi Zheng, Ruijian Zhang, Jing Gu, Jie Yang, Xin Eric Wang•May 21, 2025•193

Cuándo Continuar Pensando: Cambio Adaptativo de Modos de Pensamiento para un Razonamiento Eficiente
When to Continue Thinking: Adaptive Thinking Mode Switching for Efficient Reasoning

Xiaoyun Zhang, Jingqing Ruan, Xing Ma, Yawen Zhu, Haodong Zhao, Hao Li, Jiansong Chen, Ke Zeng, Xunliang Cai•May 21, 2025•192

Vid2World: Creación de Modelos de Difusión de Video para Modelos de Mundo Interactivos
Vid2World: Crafting Video Diffusion Models to Interactive World Models

Siqiao Huang, Jialong Wu, Qixing Zhou, Shangchen Miao, Mingsheng Long•May 20, 2025•192

lmgame-Bench: ¿Qué tan buenos son los LLM para jugar juegos?
lmgame-Bench: How Good are LLMs at Playing Games?

Lanxiang Hu, Mingjia Huo, Yuxuan Zhang, Haoyang Yu, Eric P. Xing, Ion Stoica, Tajana Rosing, Haojian Jin, Hao Zhang•May 21, 2025•183

VerifyBench: Evaluación Comparativa de Sistemas de Recompensas Basados en Referencias para Modelos de Lenguaje a Gran Escala
VerifyBench: Benchmarking Reference-based Reward Systems for Large Language Models

Yuchen Yan, Jin Jiang, Zhenbang Ren, Yijun Li, Xudong Cai, Yang Liu, Xin Xu, Mengdi Zhang, Jian Shao, Yongliang Shen, Jun Xiao, Yueting Zhuang•May 21, 2025•162

Deliberación sobre los Priores: Razonamiento Confiable de Modelos de Lenguaje de Gran Escala en Grafos de Conocimiento
Deliberation on Priors: Trustworthy Reasoning of Large Language Models on Knowledge Graphs

Jie Ma, Ning Qu, Zhitao Gao, Rui Xing, Jun Liu, Hongbin Pei, Jiang Xie, Linyun Song, Pinghui Wang, Jing Tao, Zhou Su•May 21, 2025•142

IA-T2I: Generación de Imágenes a partir de Texto Aumentada con Internet
IA-T2I: Internet-Augmented Text-to-Image Generation

Chuanhao Li, Jianwen Sun, Yukang Feng, Mingliang Zhai, Yifan Chang, Kaipeng Zhang•May 21, 2025•132

Aprender a razonar mediante Mezcla-de-Pensamientos para el razonamiento lógico
Learning to Reason via Mixture-of-Thought for Logical Reasoning

Tong Zheng, Lichang Chen, Simeng Han, R. Thomas McCoy, Heng Huang•May 21, 2025•122

dKV-Cache: La caché para modelos de lenguaje de difusión
dKV-Cache: The Cache for Diffusion Language Models

Xinyin Ma, Runpeng Yu, Gongfan Fang, Xinchao Wang•May 21, 2025•112

¡Ten cuidado al ajustar modelos de lenguaje de código abierto: tus datos de ajuste podrían ser robados en secreto!
Be Careful When Fine-tuning On Open-Source LLMs: Your Fine-tuning Data Could Be Secretly Stolen!

Zhexin Zhang, Yuhao Sun, Junxiao Yang, Shiyao Cui, Hongning Wang, Minlie Huang•May 21, 2025•112

¿Cómo deberíamos mejorar la seguridad de los modelos de razonamiento a gran escala? Un estudio empírico
How Should We Enhance the Safety of Large Reasoning Models: An Empirical Study

Zhexin Zhang, Xian Qi Loye, Victor Shea-Jay Huang, Junxiao Yang, Qi Zhu, Shiyao Cui, Fei Mi, Lifeng Shang, Yingkang Wang, Hongning Wang, Minlie Huang•May 21, 2025•112

Pensamiento Suave: Desbloqueando el Potencial de Razonamiento de los LLMs en Espacios de Conceptos Continuos
Soft Thinking: Unlocking the Reasoning Potential of LLMs in Continuous Concept Space

Zhen Zhang, Xuehai He, Weixiang Yan, Ao Shen, Chenyang Zhao, Shuohang Wang, Yelong Shen, Xin Eric Wang•May 21, 2025•102

RLVR-Mundo: Entrenamiento de Modelos del Mundo con Aprendizaje por Refuerzo
RLVR-World: Training World Models with Reinforcement Learning

Jialong Wu, Shaofeng Yin, Ningya Feng, Mingsheng Long•May 20, 2025•102

BARREL: Razonamiento Consciente de los Límites para Modelos de Lenguaje Robustos y Confiables
BARREL: Boundary-Aware Reasoning for Factual and Reliable LRMs

Junxiao Yang, Jinzhe Tu, Haoran Liu, Xiaoce Wang, Chujie Zheng, Zhexin Zhang, Shiyao Cui, Caishun Chen, Tiantian He, Hongning Wang, Yew-Soon Ong, Minlie Huang•May 18, 2025•102

ConvSearch-R1: Mejora de la Reformulación de Consultas para Búsqueda Conversacional con Razonamiento mediante Aprendizaje por Refuerzo
ConvSearch-R1: Enhancing Query Reformulation for Conversational Search with Reasoning via Reinforcement Learning

Changtai Zhu, Siyin Wang, Ruijun Feng, Kai Song, Xipeng Qiu•May 21, 2025•92

Generación de Texto Más Allá del Muestreo Discreto de Tokens
Text Generation Beyond Discrete Token Sampling

Yufan Zhuang, Liyuan Liu, Chandan Singh, Jingbo Shang, Jianfeng Gao•May 20, 2025•72

Evaluar el Sesgo sin Conjuntos de Pruebas Manuales: Una Perspectiva de Representación de Conceptos para Modelos de Lenguaje de Gran Escala
Evaluate Bias without Manual Test Sets: A Concept Representation Perspective for LLMs

Lang Gao, Kaiyang Wan, Wei Liu, Chenxi Wang, Zirui Song, Zixiang Xu, Yanbo Wang, Veselin Stoyanov, Xiuying Chen•May 21, 2025•62

AutoMat: Habilitando la Reconstrucción Automatizada de Estructuras Cristalinas a partir de Microscopía mediante el Uso de Herramientas Agénticas
AutoMat: Enabling Automated Crystal Structure Reconstruction from Microscopy via Agentic Tool Use

Yaotian Yang, Yiwen Tang, Yizhe Chen, Xiao Chen, Jiangjie Qiu, Hao Xiong, Haoyu Yin, Zhiyao Luo, Yifei Zhang, Sijia Tao, Wentao Li, Qinghua Zhang, Yuqiang Li, Wanli Ouyang, Bin Zhao, Xiaonan Wang, Fei Wei•May 19, 2025•62

DiCo: Revitalización de ConvNets para el modelado de difusión escalable y eficiente
DiCo: Revitalizing ConvNets for Scalable and Efficient Diffusion Modeling

Yuang Ai, Qihang Fan, Xuefeng Hu, Zhenheng Yang, Ran He, Huaibo Huang•May 16, 2025•52

Audio Jailbreak: Un Punto de Referencia Abierto y Exhaustivo para la Vulneración de Grandes Modelos de Audio y Lenguaje
Audio Jailbreak: An Open Comprehensive Benchmark for Jailbreaking Large Audio-Language Models

Zirui Song, Qian Jiang, Mingxuan Cui, Mingzhe Li, Lang Gao, Zeyu Zhang, Zixiang Xu, Yanbo Wang, Chenxi Wang, Guangxian Ouyang, Zhenhao Chen, Xiuying Chen•May 21, 2025•42

VARD: Ajuste fino eficiente y denso para modelos de difusión con aprendizaje por refuerzo basado en valores
VARD: Efficient and Dense Fine-Tuning for Diffusion Models with Value-based RL

Fengyuan Dai, Zifeng Zhuang, Yufei Huang, Siteng Huang, Bangyan Liao, Donglin Wang, Fajie Yuan•May 21, 2025•32

PiFlow: Descubrimiento Científico Basado en Principios con Colaboración Multiagente
PiFlow: Principle-aware Scientific Discovery with Multi-Agent Collaboration

Yingming Pu, Tao Lin, Hongyu Chen•May 21, 2025•32

RL Tango: Reforzando el Generador y el Verificador Juntos para el Razonamiento del Lenguaje
RL Tango: Reinforcing Generator and Verifier Together for Language Reasoning

Kaiwen Zha, Zhengqi Gao, Maohao Shen, Zhang-Wei Hong, Duane S. Boning, Dina Katabi•May 21, 2025•32

WebNovelBench: Colocando a los Novelistas de LLM en la Distribución de Novelas Web
WebNovelBench: Placing LLM Novelists on the Web Novel Distribution

Leon Lin, Jun Zheng, Haidong Wang•May 20, 2025•32

Ingeniería de Prompts Previos para el Ajuste Fino por Refuerzo
Prior Prompt Engineering for Reinforcement Fine-Tuning

Pittawat Taveekitworachai, Potsawee Manakul, Sarana Nutanong, Kunat Pipatanakul•May 20, 2025•32

BLEUBERI: BLEU es una recompensa sorprendentemente efectiva para el seguimiento de instrucciones.
BLEUBERI: BLEU is a surprisingly effective reward for instruction following

Yapei Chang, Yekyung Kim, Michael Krumdick, Amir Zadeh, Chuan Li, Chris Tanner, Mohit Iyyer•May 16, 2025•32

Optimización sin Compromisos: Eliminación de Redundancias Computacionales en LMM
Streamline Without Sacrifice - Squeeze out Computation Redundancy in LMM

Penghao Wu, Lewei Lu, Ziwei Liu•May 21, 2025•22

Escalado y Mejora de AVSR Basado en LLM: Un Enfoque de Mezcla Dispersa de Proyectores
Scaling and Enhancing LLM-based AVSR: A Sparse Mixture of Projectors Approach

Umberto Cappellazzo, Minsu Kim, Stavros Petridis, Daniele Falavigna, Alessio Brutti•May 20, 2025•22

BanditSpec: Decodificación Especulativa Adaptativa mediante Algoritmos de Bandido
BanditSpec: Adaptive Speculative Decoding via Bandit Algorithms

Yunlong Hou, Fengzhuo Zhang, Cunxiao Du, Xuan Zhang, Jiachun Pan, Tianyu Pang, Chao Du, Vincent Y. F. Tan, Zhuoran Yang•May 21, 2025•12

La Efectividad Irrazonable de la Minimización de Entropía en el Razonamiento de Modelos de Lenguaje Grande
The Unreasonable Effectiveness of Entropy Minimization in LLM Reasoning

Shivam Agarwal, Zimin Zhang, Lifan Yuan, Jiawei Han, Hao Peng•May 21, 2025•12

MultiHal: Conjunto de datos multilingüe para la evaluación de alucinaciones en modelos de lenguaje basados en grafos de conocimiento
MultiHal: Multilingual Dataset for Knowledge-Graph Grounded Evaluation of LLM Hallucinations

Ernests Lavrinovics, Russa Biswas, Katja Hose, Johannes Bjerva•May 20, 2025•12

HumaniBench: Un Marco Centrado en el Ser Humano para la Evaluación de Modelos Multimodales a Gran Escala
HumaniBench: A Human-Centric Framework for Large Multimodal Models Evaluation

Shaina Raza, Aravind Narayanan, Vahid Reza Khazaie, Ashmal Vayani, Mukund S. Chettiar, Amandeep Singh, Mubarak Shah, Deval Pandya•May 16, 2025•12

Conocimiento Específico del Idioma: ¿Los Modelos Saben Más en X que en Inglés?
Language Specific Knowledge: Do Models Know Better in X than in English?

Ishika Agarwal, Nimet Beyza Bozdag, Dilek Hakkani-Tür•May 21, 2025•02

El Aprendizaje en Contexto Potencia el Reconocimiento del Habla mediante la Adaptación Similar a la Humana a Hablantes y Variedades Lingüísticas
In-Context Learning Boosts Speech Recognition via Human-like Adaptation to Speakers and Language Varieties

Nathan Roll, Calbert Graham, Yuka Tatsumi, Kim Tien Nguyen, Meghan Sumner, Dan Jurafsky•May 20, 2025•02