ChatPaper.aiChatPaper.ai
Inicio

arXiv

HuggingFace

PreciosCuentaEspacio de trabajo

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

Artículos de Investigación en IA Diarios

Artículos de investigación en IA seleccionados diariamente con traducciones

Mutarjim: Avanzando en la Traducción Bidireccional Árabe-Inglés con un Modelo de Lenguaje Pequeño
Mutarjim: Advancing Bidirectional Arabic-English Translation with a Small Language Model

Khalil Hennara, Muhammad Hreden, Mohamed Motaism Hamed, Zeina Aldallal, Sara Chrouf, Safwan AlModhayan•May 23, 2025•1996

Cambiando la eficiencia de la IA de la compresión centrada en el modelo a la centrada en los datos
Shifting AI Efficiency From Model-Centric to Data-Centric Compression

Xuyang Liu, Zichen Wen, Shaobo Wang, Junjie Chen, Zhishan Tao, Yubo Wang, Xiangqi Jin, Chang Zou, Yiyu Wang, Chenfei Liao, Xu Zheng, Honggang Chen, Weijia Li, Xuming Hu, Conghui He, Linfeng Zhang•May 25, 2025•1334

Alquimista: Transformando datos públicos de texto a imagen en oro generativo
Alchemist: Turning Public Text-to-Image Data into Generative Gold

Valerii Startsev, Alexander Ustyuzhanin, Alexey Kirillov, Dmitry Baranchuk, Sergey Kastryulin•May 25, 2025•632

BizFinBench: Un punto de referencia financiero realista y orientado a los negocios para evaluar modelos de lenguaje grandes (LLMs)
BizFinBench: A Business-Driven Real-World Financial Benchmark for Evaluating LLMs

Guilong Lu, Xuntao Guo, Rongjunchen Zhang, Wenqiao Zhu, Ji Liu•May 26, 2025•594

PATS: Modo de Conmutación Adaptativa del Pensamiento a Nivel de Proceso
PATS: Process-Level Adaptive Thinking Mode Switching

Yi Wang, Junxiao Liu, Shimao Zhang, Jiajun Chen, Shujian Huang•May 25, 2025•452

Agentes Encarnados Encuentran la Personalización: Exploración de la Utilización de la Memoria para la Asistencia Personalizada
Embodied Agents Meet Personalization: Exploring Memory Utilization for Personalized Assistance

Taeyoon Kwon, Dongwook Choi, Sunghwan Kim, Hyojun Kim, Seungjun Moon, Beong-woo Kwak, Kuan-Hao Huang, Jinyoung Yeo•May 22, 2025•432

ARM: Modelo de Razonamiento Adaptativo
ARM: Adaptive Reasoning Model

Siye Wu, Jian Xie, Yikai Zhang, Aili Chen, Kai Zhang, Yu Su, Yanghua Xiao•May 26, 2025•414

Enigmata: Escalando el razonamiento lógico en modelos de lenguaje a gran escala con rompecabezas sintéticos verificables
Enigmata: Scaling Logical Reasoning in Large Language Models with Synthetic Verifiable Puzzles

Jiangjie Chen, Qianyu He, Siyu Yuan, Aili Chen, Zhicheng Cai, Weinan Dai, Hongli Yu, Qiying Yu, Xuefeng Li, Jiaze Chen, Hao Zhou, Mingxuan Wang•May 26, 2025•371

Descifrando el Razonamiento de LLM Asistido por Trayectorias: Una Perspectiva de Optimización
Deciphering Trajectory-Aided LLM Reasoning: An Optimization Perspective

Junnan Liu, Hongwei Liu, Linchen Xiao, Shudong Liu, Taolin Zhang, Zihan Ma, Songyang Zhang, Kai Chen•May 26, 2025•362

Señales sustitutas a partir del formato y la longitud: Aprendizaje por refuerzo para resolver problemas matemáticos sin respuestas de referencia
Surrogate Signals from Format and Length: Reinforcement Learning for Solving Mathematical Problems without Ground Truth Answers

Rihui Xin, Han Liu, Zecheng Wang, Yupeng Zhang, Dianbo Sui, Xiaolin Hu, Bingning Wang•May 26, 2025•292

B-score: Detección de sesgos en modelos de lenguaje extenso utilizando el historial de respuestas
B-score: Detecting biases in large language models using response history

An Vo, Mohammad Reza Taesiri, Daeyoung Kim, Anh Totti Nguyen•May 24, 2025•282

Flex-Judge: Piensa una vez, juzga en cualquier lugar
Flex-Judge: Think Once, Judge Anywhere

Jongwoo Ko, Sungnyun Kim, Sungwoo Cho, Se-Young Yun•May 24, 2025•252

MOOSE-Chem2: Explorando los límites de los LLM en el descubrimiento de hipótesis científicas de grano fino mediante búsqueda jerárquica
MOOSE-Chem2: Exploring LLM Limits in Fine-Grained Scientific Hypothesis Discovery via Hierarchical Search

Zonglin Yang, Wanhao Liu, Ben Gao, Yujie Liu, Wei Li, Tong Xie, Lidong Bing, Wanli Ouyang, Erik Cambria, Dongzhan Zhou•May 25, 2025•242

Aprender a razonar sin recompensas externas
Learning to Reason without External Rewards

Xuandong Zhao, Zhewei Kang, Aosong Feng, Sergey Levine, Dawn Song•May 26, 2025•232

¿Pueden los MLLMs guiarme a casa? Un estudio de referencia sobre el razonamiento visual detallado en mapas de tránsito
Can MLLMs Guide Me Home? A Benchmark Study on Fine-Grained Visual Reasoning from Transit Maps

Sicheng Feng, Song Wang, Shuyi Ouyang, Lingdong Kong, Zikai Song, Jianke Zhu, Huan Wang, Xinchao Wang•May 24, 2025•233

Alineación de Seguridad Continua para Modelos de Lenguaje
Lifelong Safety Alignment for Language Models

Haoyu Wang, Zeyu Qin, Yifei Zhao, Chao Du, Min Lin, Xueqian Wang, Tianyu Pang•May 26, 2025•221

Jodi: Unificación de la Generación Visual y la Comprensión mediante Modelado Conjunto
Jodi: Unification of Visual Generation and Understanding via Joint Modeling

Yifeng Xu, Zhenliang He, Meina Kan, Shiguang Shan, Xilin Chen•May 25, 2025•202

StructEval: Evaluación de las Capacidades de los Modelos de Lenguaje para Generar Salidas Estructurales
StructEval: Benchmarking LLMs' Capabilities to Generate Structural Outputs

Jialin Yang, Dongfu Jiang, Lipeng He, Sherman Siu, Yuxuan Zhang, Disen Liao, Zhuofeng Li, Huaye Zeng, Yiming Jia, Haozhe Wang, Benjamin Schneider, Chi Ruan, Wentao Ma, Zhiheng Lyu, Yifei Wang, Yi Lu, Quy Duc Do, Ziyan Jiang, Ping Nie, Wenhu Chen•May 26, 2025•181

El ajuste fino mediante refuerzo potencia la capacidad de razonamiento de los modelos de lenguaje multimodal de gran escala.
Reinforcement Fine-Tuning Powers Reasoning Capability of Multimodal Large Language Models

Haoyuan Sun, Jiaqi Wu, Bo Xia, Yifu Luo, Yifei Zhao, Kai Qin, Xufei Lv, Tiantian Zhang, Yongzhe Chang, Xueqian Wang•May 24, 2025•183

REARANK: Agente de Reordenamiento mediante Razonamiento y Aprendizaje por Refuerzo
REARANK: Reasoning Re-ranking Agent via Reinforcement Learning

Le Zhang, Bo Wang, Xipeng Qiu, Siva Reddy, Aishwarya Agrawal•May 26, 2025•172

ModernGBERT: Modelo codificador de 1B exclusivo para alemán entrenado desde cero
ModernGBERT: German-only 1B Encoder Model Trained from Scratch

Anton Ehrmanntraut, Julia Wunderle, Jan Pfister, Fotis Jannidis, Andreas Hotho•May 19, 2025•172

Puente de Markov Discreto
Discrete Markov Bridge

Hengli Li, Yuxuan Wang, Song-Chun Zhu, Ying Nian Wu, Zilong Zheng•May 26, 2025•162

Omni-R1: Aprendizaje por Refuerzo para el Razonamiento Omnimodal mediante la Colaboración de Dos Sistemas
Omni-R1: Reinforcement Learning for Omnimodal Reasoning via Two-System Collaboration

Hao Zhong, Muzhi Zhu, Zongze Du, Zheng Huang, Canyu Zhao, Mingyu Liu, Wen Wang, Hao Chen, Chunhua Shen•May 26, 2025•151

¿Qué atributos de los datos estimulan el razonamiento matemático y de código? Una investigación mediante funciones de influencia.
Which Data Attributes Stimulate Math and Code Reasoning? An Investigation via Influence Functions

Siqi Kou, Qingyuan Tian, Hanwen Xu, Zihao Zeng, Zhijie Deng•May 26, 2025•151

Red Neuronal-MPM Híbrida para Simulaciones de Fluidos Interactivas en Tiempo Real
Hybrid Neural-MPM for Interactive Fluid Simulations in Real-Time

Jingxuan Xu, Hong Huang, Chuhang Zou, Manolis Savva, Yunchao Wei, Wuyang Chen•May 25, 2025•152

Codificación de Vibración vs. Codificación Agéntica: Fundamentos e Implicaciones Prácticas de la IA Agéntica
Vibe Coding vs. Agentic Coding: Fundamentals and Practical Implications of Agentic AI

Ranjan Sapkota, Konstantinos I. Roumeliotis, Manoj Karkee•May 26, 2025•142

Hecho es mejor que perfecto: Desbloqueando el razonamiento eficiente mediante la descomposición estructurada en múltiples pasos
Done Is Better than Perfect: Unlocking Efficient Reasoning by Structured Multi-Turn Decomposition

Zihao Zeng, Xuyao Huang, Boxiu Li, Hao Zhang, Zhijie Deng•May 26, 2025•132

Modelado Visual Autoregresivo Eficiente en Memoria con Compresión de Caché KV Consciente de la Escala
Memory-Efficient Visual Autoregressive Modeling with Scale-Aware KV Cache Compression

Kunjun Li, Zigeng Chen, Cheng-Yen Yang, Jenq-Neng Hwang•May 26, 2025•132

AdaCtrl: Hacia un razonamiento adaptable y controlable mediante la gestión presupuestaria consciente de la dificultad
AdaCtrl: Towards Adaptive and Controllable Reasoning via Difficulty-Aware Budgeting

Shijue Huang, Hongru Wang, Wanjun Zhong, Zhaochen Su, Jiazhan Feng, Bowen Cao, Yi R. Fung•May 24, 2025•132

La búsqueda de un razonamiento eficiente: Un punto de referencia centrado en datos para la destilación de CoT
The Quest for Efficient Reasoning: A Data-Centric Benchmark to CoT Distillation

Ruichen Zhang, Rana Muhammad Shahroz Khan, Zhen Tan, Dawei Li, Song Wang, Tianlong Chen•May 24, 2025•123

Aprendizaje Contrastivo con Negativos Difíciles para la Comprensión Geométrica de Detalle en Modelos Multimodales de Gran Escala
Hard Negative Contrastive Learning for Fine-Grained Geometric Understanding in Large Multimodal Models

Kai Sun, Yushi Bai, Zhen Yang, Jiajie Zhang, Ji Qi, Lei Hou, Juanzi Li•May 26, 2025•111

Force Prompting: Los Modelos de Generación de Vídeo Pueden Aprender y Generalizar Señales de Control Basadas en Física
Force Prompting: Video Generation Models Can Learn and Generalize Physics-based Control Signals

Nate Gillman, Charles Herrmann, Michael Freeman, Daksh Aggarwal, Evan Luo, Deqing Sun, Chen Sun•May 26, 2025•112

G1: Mejora de las capacidades de percepción y razonamiento de modelos visión-lenguaje mediante aprendizaje por refuerzo
G1: Bootstrapping Perception and Reasoning Abilities of Vision-Language Model via Reinforcement Learning

Liang Chen, Hongcheng Gao, Tianyu Liu, Zhiqi Huang, Flood Sung, Xinyu Zhou, Yuxin Wu, Baobao Chang•May 19, 2025•112

Razonamiento Intercalado para Modelos de Lenguaje de Gran Escala mediante Aprendizaje por Refuerzo
Interleaved Reasoning for Large Language Models via Reinforcement Learning

Roy Xie, David Qiu, Deepak Gopinath, Dong Lin, Yanchao Sun, Chong Wang, Saloni Potdar, Bhuwan Dhingra•May 26, 2025•103

WHISTRESS: Enriquecimiento de Transcripciones con Detección de Acento en la Oración
WHISTRESS: Enriching Transcriptions with Sentence Stress Detection

Iddo Yosha, Dorin Shteyman, Yossi Adi•May 25, 2025•102

WINA: Activación de Neuronas Informada por Peso para Acelerar la Inferencia en Modelos de Lenguaje de Gran Escala
WINA: Weight Informed Neuron Activation for Accelerating Large Language Model Inference

Sihan Chen, Dan Zhao, Jongwoo Ko, Colby Banbury, Huiping Zhuang, Luming Liang, Tianyi Chen•May 26, 2025•92

De decenas de horas a decenas de miles: escalando la traducción inversa para el reconocimiento del habla
From Tens of Hours to Tens of Thousands: Scaling Back-Translation for Speech Recognition

Tianduo Wang, Lu Xu, Wei Lu, Shanbo Cheng•May 22, 2025•92

MLR-Bench: Evaluación de Agentes de IA en Investigación de Aprendizaje Automático de Carácter Abierto
MLR-Bench: Evaluating AI Agents on Open-Ended Machine Learning Research

Hui Chen, Miao Xiong, Yujie Lu, Wei Han, Ailin Deng, Yufei He, Jiaying Wu, Yibo Li, Yue Liu, Bryan Hooi•May 26, 2025•81

LLaDA 1.5: Optimización de Preferencias con Reducción de Varianza para Modelos de Difusión de Lenguaje a Gran Escala
LLaDA 1.5: Variance-Reduced Preference Optimization for Large Language Diffusion Models

Fengqi Zhu, Rongzhen Wang, Shen Nie, Xiaolu Zhang, Chunwei Wu, Jun Hu, Jun Zhou, Jianfei Chen, Yankai Lin, Ji-Rong Wen, Chongxuan Li•May 25, 2025•82

STAR-R1: Razonamiento de Transformación Espacial mediante el Reforzamiento de LLMs Multimodales
STAR-R1: Spatial TrAnsformation Reasoning by Reinforcing Multimodal LLMs

Zongzhao Li, Zongyang Ma, Mingze Li, Songyou Li, Yu Rong, Tingyang Xu, Ziqi Zhang, Deli Zhao, Wenbing Huang•May 21, 2025•82

InfantAgent-Next: Un agente generalista multimodal para la interacción automatizada con computadoras
InfantAgent-Next: A Multimodal Generalist Agent for Automated Computer Interaction

Bin Lei, Weitai Kang, Zijian Zhang, Winson Chen, Xi Xie, Shan Zuo, Mimi Xie, Ali Payani, Mingyi Hong, Yan Yan, Caiwen Ding•May 16, 2025•82

El Principio de Cobertura: Un Marco para Comprender la Generalización Compositiva
The Coverage Principle: A Framework for Understanding Compositional Generalization

Hoyeon Chang, Jinho Park, Hanseul Cho, Sohee Yang, Miyoung Ko, Hyeonbin Hwang, Seungpil Won, Dohaeng Lee, Youbin Ahn, Minjoon Seo•May 26, 2025•71

Ataques Fuertes de Inferencia de Pertenencia en Conjuntos de Datos Masivos y Modelos de Lenguaje (Moderadamente) Grandes
Strong Membership Inference Attacks on Massive Datasets and (Moderately) Large Language Models

Jamie Hayes, Ilia Shumailov, Christopher A. Choquette-Choo, Matthew Jagielski, George Kaissis, Katherine Lee, Milad Nasr, Sahra Ghalebikesabi, Niloofar Mireshghallah, Meenatchi Sundaram Mutu Selva Annamalai, Igor Shilov, Matthieu Meeus, Yves-Alexandre de Montjoye, Franziska Boenisch, Adam Dziedzic, A. Feder Cooper•May 24, 2025•72

Evaluaciones Dinámicas de Riesgo para Agentes de Ciberseguridad Ofensiva
Dynamic Risk Assessments for Offensive Cybersecurity Agents

Boyi Wei, Benedikt Stroebl, Jiacen Xu, Joie Zhang, Zhou Li, Peter Henderson•May 23, 2025•72

Acelerando el Aprendizaje de Nash a partir de Retroalimentación Humana mediante Prox Espejo
Accelerating Nash Learning from Human Feedback via Mirror Prox

Daniil Tiapkin, Daniele Calandriello, Denis Belomestny, Eric Moulines, Alexey Naumov, Kashif Rasul, Michal Valko, Pierre Menard•May 26, 2025•62

Replanteando los Criterios de Muestreo en el Aprendizaje por Refuerzo para el Razonamiento de LLM: Una Perspectiva de Alineación Competencia-Dificultad
Rethinking the Sampling Criteria in Reinforcement Learning for LLM Reasoning: A Competence-Difficulty Alignment Perspective

Deyang Kong, Qi Guo, Xiangyu Xi, Wei Wang, Jingang Wang, Xunliang Cai, Shikun Zhang, Wei Ye•May 23, 2025•62

Posición: La interpretabilidad mecanicista debería priorizar la consistencia de características en SAEs
Position: Mechanistic Interpretability Should Prioritize Feature Consistency in SAEs

Xiangchen Song, Aashiq Muhamed, Yujia Zheng, Lingjing Kong, Zeyu Tang, Mona T. Diab, Virginia Smith, Kun Zhang•May 26, 2025•51

¿No "sobrepienses" la reordenación de pasajes: ¿Es realmente necesario el razonamiento?
Don't "Overthink" Passage Reranking: Is Reasoning Truly Necessary?

Nour Jedidi, Yung-Sung Chuang, James Glass, Jimmy Lin•May 22, 2025•52

Una Defensa Sorprendentemente Simple Contra los Ataques de Obliteración en LLM
An Embarrassingly Simple Defense Against LLM Abliteration Attacks

Harethah Abu Shairah, Hasan Abed Al Kader Hammoud, Bernard Ghanem, George Turkiyyah•May 25, 2025•42

Razonamiento Latente Híbrido mediante Aprendizaje por Refuerzo
Hybrid Latent Reasoning via Reinforcement Learning

Zhenrui Yue, Bowen Jin, Huimin Zeng, Honglei Zhuang, Zhen Qin, Jinsung Yoon, Lanyu Shang, Jiawei Han, Dong Wang•May 24, 2025•42

Uniendo el Aprendizaje Supervisado y el Aprendizaje por Refuerzo en el Razonamiento Matemático
Bridging Supervised Learning and Reinforcement Learning in Math Reasoning

Huayu Chen, Kaiwen Zheng, Qinsheng Zhang, Ganqu Cui, Yin Cui, Haotian Ye, Tsung-Yi Lin, Ming-Yu Liu, Jun Zhu, Haoxiang Wang•May 23, 2025•42

GLEAM: Aprendizaje de una política de exploración generalizable para mapeo activo en escenas interiores complejas en 3D
GLEAM: Learning Generalizable Exploration Policy for Active Mapping in Complex 3D Indoor Scenes

Xiao Chen, Tai Wang, Quanyi Li, Tao Huang, Jiangmiao Pang, Tianfan Xue•May 26, 2025•31

Tipificación de Errores para Recompensas más Inteligentes: Mejorando los Modelos de Recompensa de Procesos con Supervisión Jerárquica Consciente de Errores
Error Typing for Smarter Rewards: Improving Process Reward Models with Error-Aware Hierarchical Supervision

Tej Deep Pala, Panshul Sharma, Amir Zadeh, Chuan Li, Soujanya Poria•May 26, 2025•32

DoctorAgent-RL: Un Sistema de Aprendizaje por Refuerzo Colaborativo Multiagente para Diálogos Clínicos de Múltiples Turnos
DoctorAgent-RL: A Multi-Agent Collaborative Reinforcement Learning System for Multi-Turn Clinical Dialogue

Yichun Feng, Jiawei Wang, Lu Zhou, Yixue Li•May 26, 2025•32

Puertas traseras arquitectónicas para el robo de datos dentro del lote y la manipulación de la inferencia del modelo
Architectural Backdoors for Within-Batch Data Stealing and Model Inference Manipulation

Nicolas Küchler, Ivan Petrov, Conrad Grobler, Ilia Shumailov•May 23, 2025•32

UFT: Unificación del Ajuste Fino Supervisado y por Refuerzo
UFT: Unifying Supervised and Reinforcement Fine-Tuning

Mingyang Liu, Gabriele Farina, Asuman Ozdaglar•May 22, 2025•33

EquivPruner: Mejorando la Eficiencia y Calidad en Búsquedas Basadas en LLM mediante la Poda de Acciones
EquivPruner: Boosting Efficiency and Quality in LLM-Based Search via Action Pruning

Jiawei Liu, Qisi Chen, Jianshu Zhang, Quan Liu, Defu Lian•May 22, 2025•33

DiSA: Acalentamiento de Pasos de Difusión en la Generación Autoregresiva de Imágenes
DiSA: Diffusion Step Annealing in Autoregressive Image Generation

Qinyu Zhao, Jaskirat Singh, Ming Xu, Akshay Asthana, Stephen Gould, Liang Zheng•May 26, 2025•21

Ver es creer, pero ¿hasta qué punto? Un análisis exhaustivo de la calibración verbalizada en modelos de visión y lenguaje.
Seeing is Believing, but How Much? A Comprehensive Analysis of Verbalized Calibration in Vision-Language Models

Weihao Xuan, Qingcheng Zeng, Heli Qi, Junjue Wang, Naoto Yokoya•May 26, 2025•21

FLAME-MoE: Una Plataforma de Investigación Transparente de Extremo a Extremo para Modelos de Lenguaje de Mezcla de Expertos
FLAME-MoE: A Transparent End-to-End Research Platform for Mixture-of-Experts Language Models

Hao Kang, Zichun Yu, Chenyan Xiong•May 26, 2025•21

MMIG-Bench: Hacia una Evaluación Integral y Explicable de Modelos de Generación de Imágenes Multimodales
MMIG-Bench: Towards Comprehensive and Explainable Evaluation of Multi-Modal Image Generation Models

Hang Hua, Ziyun Zeng, Yizhi Song, Yunlong Tang, Liu He, Daniel Aliaga, Wei Xiong, Jiebo Luo•May 26, 2025•22

La mente pragmática de las máquinas: Rastreando la emergencia de la competencia pragmática en los modelos de lenguaje a gran escala
The Pragmatic Mind of Machines: Tracing the Emergence of Pragmatic Competence in Large Language Models

Kefan Yu, Qingcheng Zeng, Weihao Xuan, Wanxin Li, Jingyi Wu, Rob Voigt•May 24, 2025•22

InstructPart: Segmentación Orientada a Tareas con Razonamiento de Instrucciones
InstructPart: Task-Oriented Part Segmentation with Instruction Reasoning

Zifu Wan, Yaqi Xie, Ce Zhang, Zhiqiu Lin, Zihan Wang, Simon Stepputtis, Deva Ramanan, Katia Sycara•May 23, 2025•22

TAGS: Un Marco de Generalista-Especialista en Tiempo de Prueba con Razonamiento y Verificación Aumentados por Recuperación
TAGS: A Test-Time Generalist-Specialist Framework with Retrieval-Augmented Reasoning and Verification

Jianghao Wu, Feilong Tang, Yulong Li, Ming Hu, Haochen Xue, Shoaib Jameel, Yutong Xie, Imran Razzak•May 23, 2025•22

Hacia una Evaluación Holística de los Modelos de Audio-Lenguaje a Gran Escala: Una Revisión Integral
Towards Holistic Evaluation of Large Audio-Language Models: A Comprehensive Survey

Chih-Kai Yang, Neo S. Ho, Hung-yi Lee•May 21, 2025•22

EgoZero: Aprendizaje Robótico a partir de Gafas Inteligentes
EgoZero: Robot Learning from Smart Glasses

Vincent Liu, Ademi Adeniji, Haotian Zhan, Raunaq Bhirangi, Pieter Abbeel, Lerrel Pinto•May 26, 2025•11

MOLE: Extracción y Validación de Metadatos en Artículos Científicos Utilizando Modelos de Lenguaje de Gran Escala (LLMs)
MOLE: Metadata Extraction and Validation in Scientific Papers Using LLMs

Zaid Alyafeai, Maged S. Al-Shaibani, Bernard Ghanem•May 26, 2025•11

El Nacimiento del Conocimiento: Características Emergentes a través del Tiempo, el Espacio y la Escala en Modelos de Lenguaje a Gran Escala
The Birth of Knowledge: Emergent Features across Time, Space, and Scale in Large Language Models

Shashata Sawmya, Micah Adler, Nir Shavit•May 26, 2025•12

CASS: Transpilación de Nvidia a AMD con Datos, Modelos y Evaluación Comparativa
CASS: Nvidia to AMD Transpilation with Data, Models, and Benchmark

Ahmed Heakl, Sarim Hashmi, Gustavo Bertolo Stahl, Seung Hun Eddie Han, Salman Khan, Abdulrahman Mahmoud•May 22, 2025•12

Los Vectores de Dirección Textual Pueden Mejorar la Comprensión Visual en Modelos de Lenguaje Multimodales de Gran Escala
Textual Steering Vectors Can Improve Visual Understanding in Multimodal Large Language Models

Woody Haosheng Gan, Deqing Fu, Julian Asilis, Ollie Liu, Dani Yogatama, Vatsal Sharan, Robin Jia, Willie Neiswanger•May 20, 2025•12

Valor Temporalmente Abstracto Consciente de Opciones para el Aprendizaje por Refuerzo Fuera de Línea Orientado a Objetivos
Option-aware Temporally Abstracted Value for Offline Goal-Conditioned Reinforcement Learning

Hongjoon Ahn, Heewoong Choi, Jisu Han, Taesup Moon•May 19, 2025•12