ChatPaper.ai
Abrir menú
Inicio
Artículos Diarios
arXiv
HuggingFace
Precios
Cuenta
Espacio de trabajo
🇪🇸
Español
Loading...
•
•
•
•
•
•
•
•
•
•
Artículos de Investigación en IA Diarios
Artículos de investigación en IA seleccionados diariamente con traducciones
June 28th, 2024
OMG-LLaVA: Uniendo el razonamiento y la comprensión a nivel de imagen, objeto y píxel
OMG-LLaVA: Bridging Image-level, Object-level, Pixel-level Reasoning and Understanding
Tao Zhang, Xiangtai Li, Hao Fei, Haobo Yuan, Shengqiong Wu, Shunping Ji, Chen Change Loy, Shuicheng Yan
•
Jun 27, 2024
•
55
10
Step-DPO: Optimización de Preferencias Paso a Paso para el Razonamiento de Cadena Larga en Modelos de Lenguaje
Step-DPO: Step-wise Preference Optimization for Long-chain Reasoning of LLMs
Xin Lai, Zhuotao Tian, Yukang Chen, Senqiao Yang, Xiangru Peng, Jiaya Jia
•
Jun 26, 2024
•
43
2
MUMU: Arranque de la Generación Multimodal de Imágenes a partir de Datos de Texto a Imagen
MUMU: Bootstrapping Multimodal Image Generation from Text-to-Image Data
William Berman, Alexander Peysakhovich
•
Jun 26, 2024
•
35
3
Simulación de Educación en el Aula con Agentes Potenciados por LLM
Simulating Classroom Education with LLM-Empowered Agents
Zheyuan Zhang, Daniel Zhang-Li, Jifan Yu, Linlu Gong, Jinchang Zhou, Zhiyuan Liu, Lei Hou, Juanzi Li
•
Jun 27, 2024
•
32
9
SeaKR: Recuperación de Conocimiento Autoconsciente para la Generación Aumentada Adaptativa con Recuperación
SeaKR: Self-aware Knowledge Retrieval for Adaptive Retrieval Augmented Generation
Zijun Yao, Weijian Qi, Liangming Pan, Shulin Cao, Linmei Hu, Weichuan Liu, Lei Hou, Juanzi Li
•
Jun 27, 2024
•
31
1
Alineación de las Preferencias del Profesor con las del Estudiante para la Generación de Datos de Entrenamiento Personalizados
Aligning Teacher with Student Preferences for Tailored Training Data Generation
Yantao Liu, Zhao Zhang, Zijun Yao, Shulin Cao, Lei Hou, Juanzi Li
•
Jun 27, 2024
•
26
2
LiveBench: Un punto de referencia desafiante y libre de contaminación para modelos de lenguaje grandes
LiveBench: A Challenging, Contamination-Free LLM Benchmark
Colin White, Samuel Dooley, Manley Roberts, Arka Pal, Ben Feuer, Siddhartha Jain, Ravid Shwartz-Ziv, Neel Jain, Khalid Saifullah, Siddartha Naidu, Chinmay Hegde, Yann LeCun, Tom Goldstein, Willie Neiswanger, Micah Goldblum
•
Jun 27, 2024
•
23
3
¿Pueden los LLMs aprender enseñando? Un estudio preliminar
Can LLMs Learn by Teaching? A Preliminary Study
Xuefei Ning, Zifu Wang, Shiyao Li, Zinan Lin, Peiran Yao, Tianyu Fu, Matthew B. Blaschko, Guohao Dai, Huazhong Yang, Yu Wang
•
Jun 20, 2024
•
20
2
Recuperación del Tamaño del Conjunto de Datos a partir de Pesos LoRA
Dataset Size Recovery from LoRA Weights
Mohammad Salama, Jonathan Kahana, Eliahu Horwitz, Yedid Hoshen
•
Jun 27, 2024
•
19
4
MoA: Mezcla de Atención Dispersa para la Compresión Automática de Modelos de Lenguaje a Gran Escala
MoA: Mixture of Sparse Attention for Automatic Large Language Model Compression
Tianyu Fu, Haofeng Huang, Xuefei Ning, Genghan Zhang, Boju Chen, Tianqi Wu, Hongyi Wang, Zixiao Huang, Shiyao Li, Shengen Yan, Guohao Dai, Huazhong Yang, Yu Wang
•
Jun 21, 2024
•
15
4
¿Está resuelta la programación por ejemplos mediante modelos de lenguaje grandes?
Is Programming by Example solved by LLMs?
Wen-Ding Li, Kevin Ellis
•
Jun 12, 2024
•
13
1
T-FREE: Modelos Generativos de Lenguaje sin Tokenizador mediante Representaciones Dispersas para Incrustaciones Eficientes en Memoria
T-FREE: Tokenizer-Free Generative LLMs via Sparse Representations for Memory-Efficient Embeddings
Björn Deiseroth, Manuel Brack, Patrick Schramowski, Kristian Kersting, Samuel Weinbach
•
Jun 27, 2024
•
11
5
AUTOHALLUSION: Generación Automática de Puntos de Referencia para Alucinaciones en Modelos de Visión-Lenguaje
AUTOHALLUSION: Automatic Generation of Hallucination Benchmarks for Vision-Language Models
Xiyang Wu, Tianrui Guan, Dianqi Li, Shuaiyi Huang, Xiaoyu Liu, Xijun Wang, Ruiqi Xian, Abhinav Shrivastava, Furong Huang, Jordan Lee Boyd-Graber, Tianyi Zhou, Dinesh Manocha
•
Jun 16, 2024
•
11
4
Leer en cualquier lugar señalado: Lectura de pantallas GUI con conciencia del diseño mediante el enfoque Tree-of-Lens Grounding
Read Anywhere Pointed: Layout-aware GUI Screen Reading with Tree-of-Lens Grounding
Yue Fan, Lei Ding, Ching-Chen Kuo, Shan Jiang, Yang Zhao, Xinze Guan, Jie Yang, Yi Zhang, Xin Eric Wang
•
Jun 27, 2024
•
10
2
Comprender las Necesidades del LLM: Alineación Dual de Preferencias para la Generación Aumentada por Recuperación
Understand What LLM Needs: Dual Preference Alignment for Retrieval-Augmented Generation
Guanting Dong, Yutao Zhu, Chenghao Zhang, Zechen Wang, Zhicheng Dou, Ji-Rong Wen
•
Jun 26, 2024
•
6
5
ArzEn-LLM: Traducción y Reconocimiento de Voz en Árabe Egipcio-Inglés con Cambio de Código Utilizando Modelos de Lenguaje de Gran Escala
ArzEn-LLM: Code-Switched Egyptian Arabic-English Translation and Speech Recognition Using LLMs
Ahmed Heakl, Youssef Zaghloul, Mennatullah Ali, Rania Hossam, Walid Gomaa
•
Jun 26, 2024
•
5
5
ResumeAtlas: Revisión de la Clasificación de Currículums con Conjuntos de Datos a Gran Escala y Modelos de Lenguaje de Gran Tamaño
ResumeAtlas: Revisiting Resume Classification with Large-Scale Datasets and Large Language Models
Ahmed Heakl, Youssef Mohamed, Noran Mohamed, Ali Sharkaway, Ahmed Zaky
•
Jun 26, 2024
•
3
3
Evaluación de Representaciones de Estados Mentales en Modelos de Lenguaje
Benchmarking Mental State Representations in Language Models
Matteo Bortoletto, Constantin Ruhdorfer, Lei Shi, Andreas Bulling
•
Jun 25, 2024
•
3
1