ChatPaper.ai
Abrir menú
Inicio
Artículos Diarios
arXiv
HuggingFace
Precios
Cuenta
Espacio de trabajo
🇪🇸
Español
Loading...
•
•
•
•
•
•
•
•
•
•
Artículos de Investigación en IA Diarios
Artículos de investigación en IA seleccionados diariamente con traducciones
August 29th, 2024
Estrategia de Equilibrio de Carga sin Pérdida de Pérdida Auxiliar para Mezcla de Expertos
Auxiliary-Loss-Free Load Balancing Strategy for Mixture-of-Experts
Lean Wang, Huazuo Gao, Chenggang Zhao, Xu Sun, Damai Dai
•
Aug 28, 2024
•
12
3
Delfín: Contexto Largo como una Nueva Modalidad para Modelos de Lenguaje en Dispositivos Eficientes en Energía
Dolphin: Long Context as a New Modality for Energy-Efficient On-Device Language Models
Wei Chen, Zhiyuan Li, Shuo Xin, Yihao Wang
•
Aug 28, 2024
•
43
4
Águila: Explorando el Espacio de Diseño para Modelos de Lenguaje Multimodales con Mezcla de Codificadores
Eagle: Exploring The Design Space for Multimodal LLMs with Mixture of Encoders
Min Shi, Fuxiao Liu, Shihao Wang, Shijia Liao, Subhashree Radhakrishnan, De-An Huang, Hongxu Yin, Karan Sapra, Yaser Yacoob, Humphrey Shi, Bryan Catanzaro, Andrew Tao, Jan Kautz, Zhiding Yu, Guilin Liu
•
Aug 28, 2024
•
88
3
La retrotrazabilidad de distribución construye una trayectoria de convergencia más rápida para la destilación de difusión de un paso.
Distribution Backtracking Builds A Faster Convergence Trajectory for One-step Diffusion Distillation
Shengyuan Zhang, Ling Yang, Zejian Li, An Zhao, Chenye Meng, Changyuan Yang, Guang Yang, Zhiyuan Yang, Lingyun Sun
•
Aug 28, 2024
•
16
2
Navegador de Conocimiento: Marco de Navegación Guiada por LLM para Búsqueda Exploratoria en Literatura Científica.
Knowledge Navigator: LLM-guided Browsing Framework for Exploratory Search in Scientific Literature
Uri Katz, Mosh Levy, Yoav Goldberg
•
Aug 28, 2024
•
13
4
Aprovechando el Conocimiento Abierto para Avanzar en la Expertise en Tareas en Modelos de Lenguaje Grandes
Leveraging Open Knowledge for Advancing Task Expertise in Large Language Models
Yuncheng Yang, Yulei Qin, Tong Wu, Zihan Xu, Gang Li, Pengcheng Guo, Hang Shao, Yucheng Shi, Ke Li, Xing Sun, Jie Yang, Yun Gu
•
Aug 28, 2024
•
20
4
TEDRA: Edición basada en texto de actores dinámicos y fotorrealistas
TEDRA: Text-based Editing of Dynamic and Photoreal Actors
Basavaraj Sunagad, Heming Zhu, Mohit Mendiratta, Adam Kortylewski, Christian Theobalt, Marc Habermann
•
Aug 28, 2024
•
4
2
Aprendizaje por imitación en contexto a través de la predicción del siguiente token.
In-Context Imitation Learning via Next-Token Prediction
Letian Fu, Huang Huang, Gaurav Datta, Lawrence Yunliang Chen, William Chung-Ho Panitch, Fangchen Liu, Hui Li, Ken Goldberg
•
Aug 28, 2024
•
10
3
LLaVA-MoD: Haciendo LLaVA diminuto a través de la destilación de conocimiento de MoE
LLaVA-MoD: Making LLaVA Tiny via MoE Knowledge Distillation
Fangxun Shu, Yue Liao, Le Zhuo, Chenning Xu, Guanghao Zhang, Haonan Shi, Long Chen, Tao Zhong, Wanggui He, Siming Fu, Haoyuan Li, Bolin Li, Zhelun Yu, Si Liu, Hongsheng Li, Hao Jiang
•
Aug 28, 2024
•
22
2
Programación eficiente de LLM mediante aprendizaje para clasificar.
Efficient LLM Scheduling by Learning to Rank
Yichao Fu, Siqi Zhu, Runlong Su, Aurick Qiao, Ion Stoica, Hao Zhang
•
Aug 28, 2024
•
21
2
Hacia un modelado realista basado en ejemplos a través de la unión gaussiana tridimensional.
Towards Realistic Example-based Modeling via 3D Gaussian Stitching
Xinyu Gao, Ziyi Yang, Bingchen Gong, Xiaoguang Han, Sipeng Yang, Xiaogang Jin
•
Aug 28, 2024
•
8
3
BaichuanSEED: Compartiendo el Potencial de la Recopilación Extensiva de Datos y Duplicación al Introducir una Línea de Base Competitiva de un Gran Modelo de Lenguaje.
BaichuanSEED: Sharing the Potential of ExtensivE Data Collection and Deduplication by Introducing a Competitive Large Language Model Baseline
Guosheng Dong, Da Pan, Yiding Sun, Shusen Zhang, Zheng Liang, Xin Wu, Yanjun Shen, Fan Yang, Haoze Sun, Tianpeng Li, Mingan Lin, Jianhua Xu, Yufan Zhang, Xiaonan Nie, Lei Su, Bingning Wang, Wentao Zhang, Jiaxin Mao, Zenan Zhou, Weipeng Chen
•
Aug 27, 2024
•
55
4
ReMamba: Equipar a Mamba con un Modelo Efectivo de Secuencias Largas
ReMamba: Equip Mamba with Effective Long-Sequence Modeling
Danlong Yuan, Jiahao Liu, Bei Li, Huishuai Zhang, Jingang Wang, Xunliang Cai, Dongyan Zhao
•
Aug 28, 2024
•
12
2