ChatPaper.ai
Abrir menú
Inicio
Artículos Diarios
arXiv
HuggingFace
Precios
Cuenta
Espacio de trabajo
🇪🇸
Español
Loading...
•
•
•
•
•
•
•
•
•
•
Artículos de Investigación en IA Diarios
Artículos de investigación en IA seleccionados diariamente con traducciones
February 18th, 2025
Modelos de Lenguaje Grandes y Fallas en el Razonamiento Matemático
Large Language Models and Mathematical Reasoning Failures
Johan Boye, Birger Moell
•
Feb 17, 2025
•
3
3
EQ-VAE: Espacio Latente Regularizado por Equivariancia para una Mejor Modelización Generativa de Imágenes
EQ-VAE: Equivariance Regularized Latent Space for Improved Generative Image Modeling
Theodoros Kouzelis, Ioannis Kakogeorgiou, Spyros Gidaris, Nikos Komodakis
•
Feb 13, 2025
•
7
2
Dyve: Pensar rápido y lento para la verificación dinámica de procesos
Dyve: Thinking Fast and Slow for Dynamic Process Verification
Jianyuan Zhong, Zeju Li, Zhijian Xu, Xiangyu Wen, Qiang Xu
•
Feb 16, 2025
•
7
2
Mejores incrustaciones con Adam acoplado
Better Embeddings with Coupled Adam
Felix Stollenwerk, Tobias Stollenwerk
•
Feb 12, 2025
•
1
3
El espejismo de la edición de modelos: Revisando la evaluación en entornos reales
The Mirage of Model Editing: Revisiting Evaluation in the Wild
Wanli Yang, Fei Sun, Jiajun Tan, Xinyu Ma, Qi Cao, Dawei Yin, Huawei Shen, Xueqi Cheng
•
Feb 16, 2025
•
10
2
Hacia el Preentrenamiento Eficiente de Datos para la Predicción de Propiedades Atómicas
Towards Data-Efficient Pretraining for Atomic Property Prediction
Yasir Ghunaim, Hasan Abed Al Kader Hammoud, Bernard Ghanem
•
Feb 16, 2025
•
3
3
ReLearn: Desaprender a través del Aprendizaje para Modelos de Lenguaje Grandes
ReLearn: Unlearning via Learning for Large Language Models
Haoming Xu, Ningyuan Zhao, Liming Yang, Sendong Zhao, Shumin Deng, Mengru Wang, Bryan Hooi, Nay Oo, Huajun Chen, Ningyu Zhang
•
Feb 16, 2025
•
29
2
Modelos de Difusión sin Guía Libre de Clasificador
Diffusion Models without Classifier-free Guidance
Zhicong Tang, Jianmin Bao, Dong Chen, Baining Guo
•
Feb 17, 2025
•
7
2
Memoria, Evaluación Comparativa y Robots: Un Punto de Referencia para Resolver Tareas Complejas con Aprendizaje por Refuerzo
Memory, Benchmark & Robots: A Benchmark for Solving Complex Tasks with Reinforcement Learning
Egor Cherepanov, Nikita Kachaev, Alexey K. Kovalev, Aleksandr I. Panov
•
Feb 14, 2025
•
5
2
Medición de la Complejidad del Lenguaje como un Proxy Ruidoso de Cero Disparos para Evaluar el Rendimiento de LLM.
Language Complexity Measurement as a Noisy Zero-Shot Proxy for Evaluating LLM Performance
Birger Moell, Johan Boye
•
Feb 17, 2025
•
0
2
Muéstrame el Trabajo: Requisitos de los Verificadores de Hechos para la Verificación de Hechos Automatizada Explicable
Show Me the Work: Fact-Checkers' Requirements for Explainable Automated Fact-Checking
Greta Warren, Irina Shklovski, Isabelle Augenstein
•
Feb 13, 2025
•
4
2
Difusión-Afilado: Ajuste fino de modelos de difusión con Afilado de Trayectoria de Desruido
Diffusion-Sharpening: Fine-tuning Diffusion Models with Denoising Trajectory Sharpening
Ye Tian, Ling Yang, Xinchen Zhang, Yunhai Tong, Mengdi Wang, Bin Cui
•
Feb 17, 2025
•
16
3
SAFE-SQL: Aprendizaje en Contexto Auto-augmentado con Selección de Ejemplos de Granularidad Fina para Texto-a-SQL
SAFE-SQL: Self-Augmented In-Context Learning with Fine-grained Example Selection for Text-to-SQL
Jimin Lee, Ingeol Baek, Byeongjeong Kim, Hwanhee Lee
•
Feb 17, 2025
•
7
2
Explorer: Escalando la síntesis de trayectorias web impulsada por exploración para agentes web multimodales
Explorer: Scaling Exploration-driven Web Trajectory Synthesis for Multimodal Web Agents
Vardaan Pahuja, Yadong Lu, Corby Rosset, Boyu Gou, Arindam Mitra, Spencer Whitehead, Yu Su, Ahmed Awadallah
•
Feb 17, 2025
•
10
2
Construyendo un Programador Orientado a la Prueba que es un 64% Mejor que GPT-4o Bajo Escasez de Datos
Building A Proof-Oriented Programmer That Is 64% Better Than GPT-4o Under Data Scarsity
Dylan Zhang, Justin Wang, Tianran Sun
•
Feb 17, 2025
•
6
2
¡Un ejemplo mostrado, muchos conceptos conocidos! Razonamiento conceptual impulsado por contraejemplos en LLMs matemáticos.
One Example Shown, Many Concepts Known! Counterexample-Driven Conceptual Reasoning in Mathematical LLMs
Yinghui Li, Jiayi Kuang, Haojing Huang, Zhikun Xu, Xinnian Liang, Yi Yu, Wenlian Lu, Yangning Li, Xiaoyu Tan, Chao Qu, Ying Shen, Hai-Tao Zheng, Philip S. Yu
•
Feb 12, 2025
•
7
2
PhysReason: Un referente integral hacia el razonamiento basado en la física
PhysReason: A Comprehensive Benchmark towards Physics-Based Reasoning
Xinyu Zhang, Yuxuan Dong, Yanrui Wu, Jiaxing Huang, Chengyou Jia, Basura Fernando, Mike Zheng Shou, Lingling Zhang, Jun Liu
•
Feb 17, 2025
•
7
2
video-SALMONN-o1: Modelo de Lenguaje Grande Audiovisual Mejorado con Razonamiento
video-SALMONN-o1: Reasoning-enhanced Audio-visual Large Language Model
Guangzhi Sun, Yudong Yang, Jimin Zhuang, Changli Tang, Yixuan Li, Wei Li, Zejun MA, Chao Zhang
•
Feb 17, 2025
•
8
2
Cucú: Un Intruso de IE Incubado por Nutrición Masiva en el Nido de LLM
Cuckoo: An IE Free Rider Hatched by Massive Nutrition in LLM's Nest
Letian Peng, Zilong Wang, Feng Yao, Jingbo Shang
•
Feb 16, 2025
•
6
2
Pregunta en Cualquier Modalidad: Un Estudio Exhaustivo sobre la Generación Aumentada por Recuperación Multimodal
Ask in Any Modality: A Comprehensive Survey on Multimodal Retrieval-Augmented Generation
Mohammad Mahdi Abootorabi, Amirhosein Zobeiri, Mahdi Dehghani, Mohammadali Mohammadkhani, Bardia Mohammadi, Omid Ghahroodi, Mahdieh Soleymani Baghshah, Ehsaneddin Asgari
•
Feb 12, 2025
•
17
2
Pienso, luego difundo: Habilitando el razonamiento multimodal en contexto en modelos de difusión
I Think, Therefore I Diffuse: Enabling Multimodal In-Context Reasoning in Diffusion Models
Zhenxing Mi, Kuan-Chieh Wang, Guocheng Qian, Hanrong Ye, Runtao Liu, Sergey Tulyakov, Kfir Aberman, Dan Xu
•
Feb 12, 2025
•
35
3
¿Cómo adquieren los LLMs nuevos conocimientos? Una perspectiva de circuitos de conocimiento sobre el preentrenamiento continuo
How Do LLMs Acquire New Knowledge? A Knowledge Circuits Perspective on Continual Pre-Training
Yixin Ou, Yunzhi Yao, Ningyu Zhang, Hui Jin, Jiacheng Sun, Shumin Deng, Zhenguo Li, Huajun Chen
•
Feb 16, 2025
•
22
6
Generación de Mensajes del Sistema para Preferencias del Usuario utilizando Modelos de Código Abierto
System Message Generation for User Preferences using Open-Source Models
Minbyul Jeong, Jungho Cho, Minsoo Khang, Dawoon Jung, Teakgyu Hong
•
Feb 17, 2025
•
15
2
Aprendizaje de Políticas de Levantamiento para Robots Humanoides del Mundo Real
Learning Getting-Up Policies for Real-World Humanoid Robots
Xialin He, Runpei Dong, Zixuan Chen, Saurabh Gupta
•
Feb 17, 2025
•
42
3
ILIAS: Recuperación de imágenes a nivel de instancia a gran escala
ILIAS: Instance-Level Image retrieval At Scale
Giorgos Kordopatis-Zilos, Vladan Stojnić, Anna Manko, Pavel Šuma, Nikolaos-Antonios Ypsilantis, Nikos Efthymiadis, Zakaria Laskar, Jiří Matas, Ondřej Chum, Giorgos Tolias
•
Feb 17, 2025
•
4
2
Atención Dispersa Nativa: Atención Dispersa Alineada con el Hardware y Entrenable de Forma Nativa
Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention
Jingyang Yuan, Huazuo Gao, Damai Dai, Junyu Luo, Liang Zhao, Zhengyan Zhang, Zhenda Xie, Y. X. Wei, Lean Wang, Zhiping Xiao, Yuqing Wang, Chong Ruan, Ming Zhang, Wenfeng Liang, Wangding Zeng
•
Feb 16, 2025
•
155
10
CRANE: Razonamiento con generación de LLM restringida
CRANE: Reasoning with constrained LLM generation
Debangshu Banerjee, Tarun Suresh, Shubham Ugare, Sasa Misailovic, Gagandeep Singh
•
Feb 13, 2025
•
19
2
IHEval: Evaluación de Modelos de Lenguaje en el Seguimiento de la Jerarquía de Instrucciones
IHEval: Evaluating Language Models on Following the Instruction Hierarchy
Zhihan Zhang, Shiyang Li, Zixuan Zhang, Xin Liu, Haoming Jiang, Xianfeng Tang, Yifan Gao, Zheng Li, Haodong Wang, Zhaoxuan Tan, Yichuan Li, Qingyu Yin, Bing Yin, Meng Jiang
•
Feb 12, 2025
•
19
2
Sailor2: Navegando en el Sudeste Asiático con Modelos de Lenguaje Multilingües Inclusivos
Sailor2: Sailing in South-East Asia with Inclusive Multilingual LLMs
Longxu Dou, Qian Liu, Fan Zhou, Changyu Chen, Zili Wang, Ziqi Jin, Zichen Liu, Tongyao Zhu, Cunxiao Du, Penghui Yang, Haonan Wang, Jiaheng Liu, Yongchi Zhao, Xiachong Feng, Xin Mao, Man Tsung Yeung, Kunat Pipatanakul, Fajri Koto, Min Si Thu, Hynek Kydlíček, Zeyi Liu, Qunshu Lin, Sittipong Sripaisarnmongkol, Kridtaphad Sae-Khow, Nirattisai Thongchim, Taechawat Konkaew, Narong Borijindargoon, Anh Dao, Matichon Maneegard, Phakphum Artkaew, Zheng-Xin Yong, Quan Nguyen, Wannaphong Phatthiyaphaibun, Hoang H. Tran, Mike Zhang, Shiqi Chen, Tianyu Pang, Chao Du, Xinyi Wan, Wei Lu, Min Lin
•
Feb 18, 2025
•
17
4
¿Puede un solo modelo dominar tanto las conversaciones multiturno como el uso de herramientas? CALM: Un modelo de lenguaje conversacional agéntico unificado
Can a Single Model Master Both Multi-turn Conversations and Tool Use? CALM: A Unified Conversational Agentic Language Model
Emre Can Acikgoz, Jeremiah Greer, Akul Datta, Ze Yang, William Zeng, Oussama Elachqar, Emmanouil Koukoumidis, Dilek Hakkani-Tür, Gokhan Tur
•
Feb 12, 2025
•
5
2
ExaGPT: Detección de Texto Generado por Máquina Basada en Ejemplos para la Interpretabilidad Humana
ExaGPT: Example-Based Machine-Generated Text Detection for Human Interpretability
Ryuto Koike, Masahiro Kaneko, Ayana Niwa, Preslav Nakov, Naoaki Okazaki
•
Feb 17, 2025
•
1
2
Valoración de Datos mediante Redes Neuronales para el Ajuste Eficiente de Instrucciones
Data Valuation using Neural Networks for Efficient Instruction Fine-Tuning
Ishika Agarwal, Dilek Hakkani-Tür
•
Feb 14, 2025
•
1
2
La comprensión de la física intuitiva surge del preentrenamiento auto-supervisado en videos naturales.
Intuitive physics understanding emerges from self-supervised pretraining on natural videos
Quentin Garrido, Nicolas Ballas, Mahmoud Assran, Adrien Bardes, Laurent Najman, Michael Rabbat, Emmanuel Dupoux, Yann LeCun
•
Feb 17, 2025
•
19
2
Hablar Estructuralmente, Actuar Jerárquicamente: Un Marco Colaborativo para Sistemas Multiagente LLM
Talk Structurally, Act Hierarchically: A Collaborative Framework for LLM Multi-Agent Systems
Zhao Wang, Sota Moriyama, Wei-Yao Wang, Briti Gangopadhyay, Shingo Takamatsu
•
Feb 16, 2025
•
13
2
SWE-Lancer: ¿Pueden los modelos de lenguaje masivo de Frontier ganar $1 millón en trabajos freelance de ingeniería de software del mundo real?
SWE-Lancer: Can Frontier LLMs Earn $1 Million from Real-World Freelance Software Engineering?
Samuel Miserendino, Michele Wang, Tejal Patwardhan, Johannes Heidecke
•
Feb 17, 2025
•
45
5
SURGE: Sobre el Potencial de los Modelos de Lenguaje Grandes como Ejecutores de Código Sustitutos de Propósito General
SURGE: On the Potential of Large Language Models as General-Purpose Surrogate Code Executors
Bohan Lyu, Siqiao Huang, Zichen Liang
•
Feb 16, 2025
•
10
2
MagicArticulate: Prepara tus modelos 3D para la articulación
MagicArticulate: Make Your 3D Models Articulation-Ready
Chaoyue Song, Jianfeng Zhang, Xiu Li, Fan Yang, Yiwen Chen, Zhongcong Xu, Jun Hao Liew, Xiaoyang Guo, Fayao Liu, Jiashi Feng, Guosheng Lin
•
Feb 17, 2025
•
8
2
HermesFlow: Cerrando sin problemas la brecha en la comprensión y generación multimodal
HermesFlow: Seamlessly Closing the Gap in Multimodal Understanding and Generation
Ling Yang, Xinchen Zhang, Ye Tian, Chenming Shang, Minghao Xu, Wentao Zhang, Bin Cui
•
Feb 17, 2025
•
16
2