ChatPaper.ai
Abrir menú
Inicio
Artículos Diarios
arXiv
HuggingFace
Precios
Cuenta
Espacio de trabajo
🇪🇸
Español
Loading...
•
•
•
•
•
•
•
•
•
•
Artículos de Investigación en IA Diarios
Artículos de investigación en IA seleccionados diariamente con traducciones
October 11th, 2024
Asesor de Datos: Curación Dinámica de Datos para la Alineación de Seguridad de Modelos de Lenguaje Grandes
Data Advisor: Dynamic Data Curation for Safety Alignment of Large Language Models
Fei Wang, Ninareh Mehrabi, Palash Goyal, Rahul Gupta, Kai-Wei Chang, Aram Galstyan
•
Oct 7, 2024
•
3
2
DART: Transformador Autoregresivo de Desruido para la Generación Escalable de Texto a Imagen
DART: Denoising Autoregressive Transformer for Scalable Text-to-Image Generation
Jiatao Gu, Yuyang Wang, Yizhe Zhang, Qihang Zhang, Dinghuai Zhang, Navdeep Jaitly, Josh Susskind, Shuangfei Zhai
•
Oct 10, 2024
•
25
2
Vector-ICL: Aprendizaje en Contexto con Representaciones Vectoriales Continuas
Vector-ICL: In-context Learning with Continuous Vector Representations
Yufan Zhuang, Chandan Singh, Liyuan Liu, Jingbo Shang, Jianfeng Gao
•
Oct 8, 2024
•
3
3
Evaluación del Generación de Flujo de Trabajo Agente
Benchmarking Agentic Workflow Generation
Shuofei Qiao, Runnan Fang, Zhisong Qiu, Xiaobin Wang, Ningyu Zhang, Yong Jiang, Pengjun Xie, Fei Huang, Huajun Chen
•
Oct 10, 2024
•
27
2
Todo en Todas Partes al Mismo Tiempo: Los LLM pueden Aprender Múltiples Tareas en Contexto en Superposición
Everything Everywhere All at Once: LLMs can In-Context Learn Multiple Tasks in Superposition
Zheyang Xiong, Ziyang Cai, John Cooper, Albert Ge, Vasilis Papageorgiou, Zack Sifakis, Angeliki Giannou, Ziqian Lin, Liu Yang, Saurabh Agarwal, Grigorios G Chrysos, Samet Oymak, Kangwook Lee, Dimitris Papailiopoulos
•
Oct 8, 2024
•
11
2
DICE: Inversión Discreta que Permite la Edición Controlable para Modelos Generativos de Difusión Multinomial y Enmascarados
DICE: Discrete Inversion Enabling Controllable Editing for Multinomial Diffusion and Masked Generative Models
Xiaoxiao He, Ligong Han, Quan Dao, Song Wen, Minhao Bai, Di Liu, Han Zhang, Martin Renqiang Min, Felix Juefei-Xu, Chaowei Tan, Bo Liu, Kang Li, Hongdong Li, Junzhou Huang, Faez Ahmed, Akash Srivastava, Dimitris Metaxas
•
Oct 10, 2024
•
19
2
Preservación de las capacidades multi-modales de los VLM pre-entrenados para mejorar la composicionalidad visión-lingüística.
Preserving Multi-Modal Capabilities of Pre-trained VLMs for Improving Vision-Linguistic Compositionality
Youngtaek Oh, Jae Won Cho, Dong-Jin Kim, In So Kweon, Junmo Kim
•
Oct 7, 2024
•
11
3
Óptima: Optimizando la Efectividad y Eficiencia para un Sistema Multiagente Basado en LLM
Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System
Weize Chen, Jiarui Yuan, Chen Qian, Cheng Yang, Zhiyuan Liu, Maosong Sun
•
Oct 10, 2024
•
8
2
Difusión Rectificada: La Rectitud No Es Tu Necesidad en el Flujo Rectificado
Rectified Diffusion: Straightness Is Not Your Need in Rectified Flow
Fu-Yun Wang, Ling Yang, Zhaoyang Huang, Mengdi Wang, Hongsheng Li
•
Oct 9, 2024
•
18
3
LPZero: Búsqueda de Proxies de Modelo de Lenguaje sin Coste desde Cero
LPZero: Language Model Zero-cost Proxy Search from Zero
Peijie Dong, Lujun Li, Xiang Liu, Zhenheng Tang, Xuebo Liu, Qiang Wang, Xiaowen Chu
•
Oct 7, 2024
•
2
2
MLLM como Recuperador: Aprendizaje Interactivo de Recuperación Multimodal para Agentes Encarnados
MLLM as Retriever: Interactively Learning Multimodal Retrieval for Embodied Agents
Junpeng Yue, Xinru Xu, Börje F. Karlsson, Zongqing Lu
•
Oct 4, 2024
•
37
2
MathCoder2: Mejor razonamiento matemático a partir de un preentrenamiento continuado en código matemático traducido por el modelo.
MathCoder2: Better Math Reasoning from Continued Pretraining on Model-translated Mathematical Code
Zimu Lu, Aojun Zhou, Ke Wang, Houxing Ren, Weikang Shi, Junting Pan, Mingjie Zhan, Hongsheng Li
•
Oct 10, 2024
•
47
2
Modelos de Difusión de Video Autoregresivos Progresivos
Progressive Autoregressive Video Diffusion Models
Desai Xie, Zhan Xu, Yicong Hong, Hao Tan, Difan Liu, Feng Liu, Arie Kaufman, Yang Zhou
•
Oct 10, 2024
•
16
4
Engaño en las evaluaciones automáticas de LLM: Los modelos nulos logran altas tasas de victoria
Cheating Automatic LLM Benchmarks: Null Models Achieve High Win Rates
Xiaosen Zheng, Tianyu Pang, Chao Du, Qian Liu, Jing Jiang, Min Lin
•
Oct 9, 2024
•
7
2
Zebra: Preentrenamiento Generativo y en Contexto para Resolver EDPs Paramétricas
Zebra: In-Context and Generative Pretraining for Solving Parametric PDEs
Louis Serrano, Armand Kassaï Koupaï, Thomas X Wang, Pierre Erbacher, Patrick Gallinari
•
Oct 4, 2024
•
2
2
Propiedades Intrigantes de los Modelos de Lenguaje y Visión de Gran Tamaño
Intriguing Properties of Large Language and Vision Models
Young-Jun Lee, Byungsoo Ko, Han-Gyu Kim, Yechan Hwang, Ho-Jin Choi
•
Oct 7, 2024
•
16
4
Agente S: Un Marco Agente Abierto que Utiliza Computadoras Como un Humano
Agent S: An Open Agentic Framework that Uses Computers Like a Human
Saaket Agashe, Jiuzhou Han, Shuyu Gan, Jiachen Yang, Ang Li, Xin Eric Wang
•
Oct 10, 2024
•
24
2
Propiedades emergentes con ejemplos repetidos
Emergent properties with repeated examples
François Charton, Julia Kempe
•
Oct 9, 2024
•
8
3
Hacia la Auto-Mejora de LLMs a través de MCTS: Aprovechando el Conocimiento Paso a Paso con Aprendizaje de Preferencias de Currículum
Towards Self-Improvement of LLMs via MCTS: Leveraging Stepwise Knowledge with Curriculum Preference Learning
Xiyao Wang, Linfeng Song, Ye Tian, Dian Yu, Baolin Peng, Haitao Mi, Furong Huang, Dong Yu
•
Oct 9, 2024
•
10
2
PrefixQuant: Cuantificación estática supera a la dinámica a través de valores atípicos prefijados en LLMs
PrefixQuant: Static Quantization Beats Dynamic through Prefixed Outliers in LLMs
Mengzhao Chen, Yi Liu, Jiahao Wang, Yi Bin, Wenqi Shao, Ping Luo
•
Oct 7, 2024
•
31
2
WALL-E: Alineación Mundial mediante Aprendizaje de Reglas Mejora Agentes LLM basados en Modelos del Mundo
WALL-E: World Alignment by Rule Learning Improves World Model-based LLM Agents
Siyu Zhou, Tianyi Zhou, Yijun Yang, Guodong Long, Deheng Ye, Jing Jiang, Chengqi Zhang
•
Oct 9, 2024
•
51
3
SFTMix: Mejorando la Ajuste de Instrucciones de Modelos de Lenguaje con la Receta Mixup
SFTMix: Elevating Language Model Instruction Tuning with Mixup Recipe
Yuxin Xiao, Shujian Zhang, Wenxuan Zhou, Marzyeh Ghassemi, Sanqiang Zhao
•
Oct 7, 2024
•
8
2
Ampliando tus núcleos: Diseño de núcleos grandes en ConvNets hacia Representaciones Universales
Scaling Up Your Kernels: Large Kernel Design in ConvNets towards Universal Representations
Yiyuan Zhang, Xiaohan Ding, Xiangyu Yue
•
Oct 10, 2024
•
8
2
Optimización Acelerada de Preferencias para la Alineación de Modelos de Lenguaje Grandes
Accelerated Preference Optimization for Large Language Model Alignment
Jiafan He, Huizhuo Yuan, Quanquan Gu
•
Oct 8, 2024
•
5
2
GLOV: Modelos de Lenguaje Guía como Optimizadores Implícitos para Visión
GLOV: Guided Large Language Models as Implicit Optimizers for Vision Language Models
M. Jehanzeb Mirza, Mengjie Zhao, Zhuoyuan Mao, Sivan Doveh, Wei Lin, Paul Gavrikov, Michael Dorkenwald, Shiqi Yang, Saurav Jha, Hiromi Wakaki, Yuki Mitsufuji, Horst Possegger, Rogerio Feris, Leonid Karlinsky, James Glass
•
Oct 8, 2024
•
16
2
MotionGS: Explorando la Guía de Movimiento Explícito para la Dispersión Gaussiana 3D Deformable
MotionGS: Exploring Explicit Motion Guidance for Deformable 3D Gaussian Splatting
Ruijie Zhu, Yanzhe Liang, Hanzhi Chang, Jiacheng Deng, Jiahao Lu, Wenfei Yang, Tianzhu Zhang, Yongdong Zhang
•
Oct 10, 2024
•
3
2