ChatPaper.ai
Abrir menú
Inicio
Artículos Diarios
arXiv
HuggingFace
Precios
Cuenta
Espacio de trabajo
🇪🇸
Español
Loading...
•
•
•
•
•
•
•
•
•
•
Artículos de Investigación en IA Diarios
Artículos de investigación en IA seleccionados diariamente con traducciones
March 7th, 2025
FuseChat-3.0: Optimización de Preferencias se Encuentra con la Fusión de Modelos Heterogéneos
FuseChat-3.0: Preference Optimization Meets Heterogeneous Model Fusion
Ziyi Yang, Fanqi Wan, Longguang Zhong, Canbin Huang, Guosheng Liang, Xiaojun Quan
•
Mar 6, 2025
•
15
3
LLMVoX: Modelo de Texto a Voz Autoregresivo en Streaming para Cualquier LLM
LLMVoX: Autoregressive Streaming Text-to-Speech Model for Any LLM
Sambal Shikhar, Mohammed Irfan Kurpath, Sahal Shaji Mullappilly, Jean Lahoud, Fahad Khan, Rao Muhammad Anwer, Salman Khan, Hisham Cholakkal
•
Mar 6, 2025
•
70
5
Audio Flamingo 2: Un modelo de lenguaje-audio con comprensión de audio largo y capacidades de razonamiento experto
Audio Flamingo 2: An Audio-Language Model with Long-Audio Understanding and Expert Reasoning Abilities
Sreyan Ghosh, Zhifeng Kong, Sonal Kumar, S Sakshi, Jaehyeon Kim, Wei Ping, Rafael Valle, Dinesh Manocha, Bryan Catanzaro
•
Mar 6, 2025
•
23
2
Lo mejor de ambos mundos: Integración de modelos de lenguaje y modelos de difusión para la generación de videos
The Best of Both Worlds: Integrating Language Models and Diffusion Models for Video Generation
Aoxiong Yin, Kai Shen, Yichong Leng, Xu Tan, Xinyu Zhou, Juncheng Li, Siliang Tang
•
Mar 6, 2025
•
9
1
HybridNorm: Hacia un entrenamiento estable y eficiente de Transformers mediante normalización híbrida
HybridNorm: Towards Stable and Efficient Transformer Training via Hybrid Normalization
Zhijian Zhuo, Yutao Zeng, Ya Wang, Sijun Zhang, Jian Yang, Xiaoqing Li, Xun Zhou, Jinwen Ma
•
Mar 6, 2025
•
20
8
Los modelos dedicados de retroalimentación y edición potencian la escalabilidad en tiempo de inferencia para tareas de dominio general de naturaleza abierta.
Dedicated Feedback and Edit Models Empower Inference-Time Scaling for Open-Ended General-Domain Tasks
Zhilin Wang, Jiaqi Zeng, Olivier Delalleau, Daniel Egert, Ellie Evans, Hoo-Chang Shin, Felipe Soares, Yi Dong, Oleksii Kuchaiev
•
Mar 6, 2025
•
7
4
LINGOLY-TOO: Desenredando la memorización del razonamiento mediante la plantilla lingüística y la ofuscación ortográfica
LINGOLY-TOO: Disentangling Memorisation from Reasoning with Linguistic Templatisation and Orthographic Obfuscation
Jude Khouja, Karolina Korgul, Simi Hellsten, Lingyi Yang, Vlad Neacs, Harry Mayne, Ryan Kearns, Andrew Bean, Adam Mahdi
•
Mar 4, 2025
•
25
3
PokéChamp: un Agente de Lenguaje Minimax de Nivel Experto
PokéChamp: an Expert-level Minimax Language Agent
Seth Karten, Andy Luu Nguyen, Chi Jin
•
Mar 6, 2025
•
12
2
IFIR: Un punto de referencia integral para evaluar el seguimiento de instrucciones en la recuperación de información de dominio experto
IFIR: A Comprehensive Benchmark for Evaluating Instruction-Following in Expert-Domain Information Retrieval
Tingyu Song, Guo Gan, Mingsheng Shang, Yilun Zhao
•
Mar 6, 2025
•
21
2
Identificación de Pesos Sensibles mediante Integral Post-cuantización
Identifying Sensitive Weights via Post-quantization Integral
Yuezhou Hu, Weiyu Huang, Zichen Liang, Chang Chen, Jintao Zhang, Jun Zhu, Jianfei Chen
•
Feb 28, 2025
•
7
2
L^2M: Ley de Escalado de Información Mutua para Modelado de Lenguaje de Contexto Largo
L^2M: Mutual Information Scaling Law for Long-Context Language Modeling
Zhuo Chen, Oriol Mayné i Comas, Zhuotao Jin, Di Luo, Marin Soljačić
•
Mar 6, 2025
•
20
2
LLM como un Teléfono Descompuesto: La Generación Iterativa Distorsiona la Información
LLM as a Broken Telephone: Iterative Generation Distorts Information
Amr Mohamed, Mingmeng Geng, Michalis Vazirgiannis, Guokan Shang
•
Feb 27, 2025
•
27
2
Sobre la Adquisición de Representaciones Gramaticales Compartidas en Modelos de Lenguaje Bilingües
On the Acquisition of Shared Grammatical Representations in Bilingual Language Models
Catherine Arnett, Tyler A. Chang, James A. Michaelov, Benjamin K. Bergen
•
Mar 5, 2025
•
3
1
Comprensión eficiente de videos largos mediante tokens para modelos de lenguaje multimodal (LLMs)
Token-Efficient Long Video Understanding for Multimodal LLMs
Jindong Jiang, Xiuyu Li, Zhijian Liu, Muyang Li, Guo Chen, Zhiqi Li, De-An Huang, Guilin Liu, Zhiding Yu, Kurt Keutzer, Sungjin Ahn, Jan Kautz, Hongxu Yin, Yao Lu, Song Han, Wonmin Byeon
•
Mar 6, 2025
•
94
2
¿Cómo Dirigir los Latentes de los Modelos de Lenguaje para la Detección de Alucinaciones?
How to Steer LLM Latents for Hallucination Detection?
Seongheon Park, Xuefeng Du, Min-Hsuan Yeh, Haobo Wang, Yixuan Li
•
Mar 1, 2025
•
11
2
Unión de Expertos: Adaptación del Enrutamiento Jerárquico al Transformador Descompuesto de Forma Equivalente
Union of Experts: Adapting Hierarchical Routing to Equivalently Decomposed Transformer
Yujiao Yang, Jing Lian, Linhui Li
•
Mar 4, 2025
•
8
4
EgoLife: Hacia un Asistente de Vida Egocéntrico
EgoLife: Towards Egocentric Life Assistant
Jingkang Yang, Shuai Liu, Hongming Guo, Yuhao Dong, Xiamengwei Zhang, Sicheng Zhang, Pengyun Wang, Zitang Zhou, Binzhu Xie, Ziyue Wang, Bei Ouyang, Zhengyu Lin, Marco Cominelli, Zhongang Cai, Yuanhan Zhang, Peiyuan Zhang, Fangzhou Hong, Joerg Widmer, Francesco Gringoli, Lei Yang, Bo Li, Ziwei Liu
•
Mar 5, 2025
•
42
2
START: Razonador Autodidacta con Herramientas
START: Self-taught Reasoner with Tools
Chengpeng Li, Mingfeng Xue, Zhenru Zhang, Jiaxi Yang, Beichen Zhang, Xiang Wang, Bowen Yu, Binyuan Hui, Junyang Lin, Dayiheng Liu
•
Mar 6, 2025
•
111
6
Comprensión y predicción de descarrilamientos en conversaciones tóxicas en GitHub
Understanding and Predicting Derailment in Toxic Conversations on GitHub
Mia Mohammad Imran, Robert Zita, Rebekah Copeland, Preetha Chatterjee, Rahat Rizvi Rahman, Kostadin Damevski
•
Mar 4, 2025
•
4
2
Combinación de Flow Matching y Transformers para la Solución Eficiente de Problemas Inversos Bayesianos
Combining Flow Matching and Transformers for Efficient Solution of Bayesian Inverse Problems
Daniil Sherki, Ivan Oseledets, Ekaterina Muravleva
•
Mar 3, 2025
•
5
2
Perdidos en el literalismo: Cómo el entrenamiento supervisado moldea el "traduccionés" en los LLM
Lost in Literalism: How Supervised Training Shapes Translationese in LLMs
Yafu Li, Ronghao Zhang, Zhilin Wang, Huajian Zhang, Leyang Cui, Yongjing Yin, Tong Xiao, Yue Zhang
•
Mar 6, 2025
•
5
2