ChatPaper.ai
Abrir menú
Inicio
Artículos Diarios
arXiv
HuggingFace
Precios
Cuenta
Espacio de trabajo
🇪🇸
Español
Loading...
•
•
•
•
•
•
•
•
•
•
Artículos de Investigación en IA Diarios
Artículos de investigación en IA seleccionados diariamente con traducciones
February 11th, 2025
MetaChain: Un marco totalmente automatizado y sin código para agentes LLM.
MetaChain: A Fully-Automated and Zero-Code Framework for LLM Agents
Jiabin Tang, Tianyu Fan, Chao Huang
•
Feb 9, 2025
•
16
2
Difusión de Video Guiada por Historial
History-Guided Video Diffusion
Kiwhan Song, Boyuan Chen, Max Simchowitz, Yilun Du, Russ Tedrake, Vincent Sitzmann
•
Feb 10, 2025
•
12
2
Steel-LLM: De Cero a Código Abierto - Un Viaje Personal en la Creación de un LLM Centrado en el Chino.
Steel-LLM:From Scratch to Open Source -- A Personal Journey in Building a Chinese-Centric LLM
Qingshui Gu, Shu Li, Tianyu Zheng, Zhaoxiang Zhang
•
Feb 10, 2025
•
4
2
APE: Generación más rápida y con contextos más largos mediante Codificación Paralela Adaptativa.
APE: Faster and Longer Context-Augmented Generation via Adaptive Parallel Encoding
Xinyu Yang, Tianqi Chen, Beidi Chen
•
Feb 8, 2025
•
6
4
La Maldición de la Profundidad en Modelos de Lenguaje Grandes
The Curse of Depth in Large Language Models
Wenfang Sun, Xinyuan Song, Pengxiang Li, Lu Yin, Yefeng Zheng, Shiwei Liu
•
Feb 9, 2025
•
39
5
Aceleración sin pérdida de modelos de lenguaje grandes con redacción jerárquica basada en la temporalidad local en decodificación especulativa.
Lossless Acceleration of Large Language Models with Hierarchical Drafting based on Temporal Locality in Speculative Decoding
Sukmin Cho, Sangjin Choi, Taeho Hwang, Jeongyeon Seo, Soyeong Jeong, Huije Lee, Hoyun Song, Jong C. Park, Youngjin Kwon
•
Feb 8, 2025
•
18
3
CustomVideoX: Adaptación Dinámica Dirigida por Atención de Referencia 3D para Transformadores de Difusión de Video Personalizados de Cero Disparos.
CustomVideoX: 3D Reference Attention Driven Dynamic Adaptation for Zero-Shot Customized Video Diffusion Transformers
D. She, Mushui Liu, Jingxuan Pang, Jin Wang, Zhen Yang, Wanggui He, Guanghao Zhang, Yi Wang, Qihan Huang, Haobin Tang, Yunlong Yu, Siming Fu
•
Feb 10, 2025
•
11
2
¿Puede 1B LLM superar a 405B LLM? Repensando la Escalabilidad Óptima de Cálculo en Tiempo de Prueba.
Can 1B LLM Surpass 405B LLM? Rethinking Compute-Optimal Test-Time Scaling
Runze Liu, Junqi Gao, Jian Zhao, Kaiyan Zhang, Xiu Li, Biqing Qi, Wanli Ouyang, Bowen Zhou
•
Feb 10, 2025
•
151
6
Jakiro: Mejora de la Decodificación Especulativa con Múltiples Cabeceras Desacopladas a través de MoE
Jakiro: Boosting Speculative Decoding with Decoupled Multi-Head via MoE
Haiduo Huang, Fuwei Yang, Zhenhua Liu, Yixing Xu, Jinze Li, Yang Liu, Xuanwu Yin, Dong Li, Pengju Ren, Emad Barsoum
•
Feb 10, 2025
•
5
2
Hacia el Entrenamiento a Escala de Internet para Agentes
Towards Internet-Scale Training For Agents
Brandon Trabucco, Gunnar Sigurdsson, Robinson Piramuthu, Ruslan Salakhutdinov
•
Feb 10, 2025
•
8
2
Optimización de la Preferencia de Subtítulos Duales para Modelos de Difusión
Dual Caption Preference Optimization for Diffusion Models
Amir Saeidi, Yiran Luo, Agneet Chatterjee, Shamanthak Hegde, Bimsara Pathiraja, Yezhou Yang, Chitta Baral
•
Feb 9, 2025
•
9
2
LM2: Modelos de Gran Memoria
LM2: Large Memory Models
Jikun Kang, Wenqi Wu, Filippos Christianos, Alex J. Chan, Fraser Greenlee, George Thomas, Marvin Purtorab, Andy Toulis
•
Feb 9, 2025
•
30
7
DreamDPO: Alineando la Generación de Texto a 3D con las Preferencias Humanas a través de la Optimización Directa de Preferencias
DreamDPO: Aligning Text-to-3D Generation with Human Preferences via Direct Preference Optimization
Zhenglin Zhou, Xiaobo Xia, Fan Ma, Hehe Fan, Yi Yang, Tat-Seng Chua
•
Feb 5, 2025
•
7
2
Explorando el Límite de la Recompensa de Resultado para el Aprendizaje del Razonamiento Matemático
Exploring the Limit of Outcome Reward for Learning Mathematical Reasoning
Chengqi Lyu, Songyang Gao, Yuzhe Gu, Wenwei Zhang, Jianfei Gao, Kuikun Liu, Ziyi Wang, Shuaibin Li, Qian Zhao, Haian Huang, Weihan Cao, Jiangning Liu, Hongwei Liu, Junnan Liu, Songyang Zhang, Dahua Lin, Kai Chen
•
Feb 10, 2025
•
61
6
Entrenamiento de Modelos de Lenguaje para Deducción Social con Aprendizaje por Refuerzo Multiagente
Training Language Models for Social Deduction with Multi-Agent Reinforcement Learning
Bidipta Sarkar, Warren Xia, C. Karen Liu, Dorsa Sadigh
•
Feb 9, 2025
•
38
3
La Vida Oculta de los Tokens: Reducción de la Alucinación en Modelos de Visión-Lenguaje Grandes a través de la Dirección de Información Visual.
The Hidden Life of Tokens: Reducing Hallucination of Large Vision-Language Models via Visual Information Steering
Zhuowei Li, Haizhou Shi, Yunhe Gao, Di Liu, Zhenting Wang, Yuxiao Chen, Ting Liu, Long Zhao, Hao Wang, Dimitris N. Metaxas
•
Feb 5, 2025
•
12
3
Efficient-vDiT: Transformadores de Difusión de Video Eficientes con Atención por Bloques
Efficient-vDiT: Efficient Video Diffusion Transformers With Attention Tile
Hangliang Ding, Dacheng Li, Runlong Su, Peiyuan Zhang, Zhijie Deng, Ion Stoica, Hao Zhang
•
Feb 10, 2025
•
10
2
ReasonFlux: Razonamiento jerárquico LLM a través de la ampliación de plantillas de pensamiento
ReasonFlux: Hierarchical LLM Reasoning via Scaling Thought Templates
Ling Yang, Zhaochen Yu, Bin Cui, Mengdi Wang
•
Feb 10, 2025
•
21
3
SynthDetoxM: Los Modelos de Lenguaje de Gran Tamaño Modernos son Datos de Desintoxicación Paralela de Pocas Muestras.
SynthDetoxM: Modern LLMs are Few-Shot Parallel Detoxification Data Annotators
Daniil Moskovskiy, Nikita Sushko, Sergey Pletenev, Elena Tutubalina, Alexander Panchenko
•
Feb 10, 2025
•
90
2
Cuantización Matryoshka
Matryoshka Quantization
Pranav Nair, Puranjay Datta, Jeff Dean, Prateek Jain, Aditya Kusupati
•
Feb 10, 2025
•
30
4
Show-o Turbo: Hacia una comprensión y generación multimodal unificada acelerada
Show-o Turbo: Towards Accelerated Unified Multimodal Understanding and Generation
Chenkai Xu, Xu Wang, Zhenyi Liao, Yishun Li, Tianqi Hou, Zhijie Deng
•
Feb 8, 2025
•
22
2
CODESIM: Generación de Código Multiagente y Resolución de Problemas a través de Planificación y Depuración Guiadas por Simulación.
CODESIM: Multi-Agent Code Generation and Problem Solving through Simulation-Driven Planning and Debugging
Md. Ashraful Islam, Mohammed Eunus Ali, Md Rizwan Parvez
•
Feb 8, 2025
•
23
3
EVEv2: Mejoras en los Baselines para Modelos Visión-Lenguaje sin Codificador
EVEv2: Improved Baselines for Encoder-Free Vision-Language Models
Haiwen Diao, Xiaotong Li, Yufeng Cui, Yueze Wang, Haoge Deng, Ting Pan, Wenxuan Wang, Huchuan Lu, Xinlong Wang
•
Feb 10, 2025
•
12
2
Equipo Rojo Encarnado para la Auditoría de Modelos Fundamentales Robóticos
Embodied Red Teaming for Auditing Robotic Foundation Models
Sathwik Karnik, Zhang-Wei Hong, Nishant Abhangi, Yen-Chen Lin, Tsun-Hsuan Wang, Christophe Dupuy, Rahul Gupta, Pulkit Agrawal
•
Nov 27, 2024
•
2
2
Ciencia Prohibida: Desafío de Evaluación de Doble Uso de la IA y Pruebas de Rechazo Científico
Forbidden Science: Dual-Use AI Challenge Benchmark and Scientific Refusal Tests
David Noever, Forrest McKee
•
Feb 8, 2025
•
1
2
Lumina-Video: Generación eficiente y flexible de video con Multi-escala Next-DiT
Lumina-Video: Efficient and Flexible Video Generation with Multi-scale Next-DiT
Dongyang Liu, Shicheng Li, Yutong Liu, Zhen Li, Kai Wang, Xinyue Li, Qi Qin, Yufei Liu, Yi Xin, Zhongyu Li, Bin Fu, Chenyang Si, Yuewen Cao, Conghui He, Ziwei Liu, Yu Qiao, Qibin Hou, Hongsheng Li, Peng Gao
•
Feb 10, 2025
•
14
2