ChatPaper.aiChatPaper.ai
Главная

arXiv

HuggingFace

ЦеныАккаунтРабочее пространство

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

Ежедневные Исследовательские Статьи по ИИ

Ежедневно отобранные исследовательские статьи по ИИ с переводами

Mutarjim: Развитие двунаправленного арабско-английского перевода с использованием компактной языковой модели
Mutarjim: Advancing Bidirectional Arabic-English Translation with a Small Language Model

Khalil Hennara, Muhammad Hreden, Mohamed Motaism Hamed, Zeina Aldallal, Sara Chrouf, Safwan AlModhayan•May 23, 2025•1996

Смещение акцента в эффективности ИИ от сжатия, ориентированного на модели, к сжатию, ориентированному на данные
Shifting AI Efficiency From Model-Centric to Data-Centric Compression

Xuyang Liu, Zichen Wen, Shaobo Wang, Junjie Chen, Zhishan Tao, Yubo Wang, Xiangqi Jin, Chang Zou, Yiyu Wang, Chenfei Liao, Xu Zheng, Honggang Chen, Weijia Li, Xuming Hu, Conghui He, Linfeng Zhang•May 25, 2025•1334

Alchemist: Превращение общедоступных данных для генерации текста в изображения в генеративное золото
Alchemist: Turning Public Text-to-Image Data into Generative Gold

Valerii Startsev, Alexander Ustyuzhanin, Alexey Kirillov, Dmitry Baranchuk, Sergey Kastryulin•May 25, 2025•632

BizFinBench: Бизнес-ориентированный реальный финансовый эталон для оценки языковых моделей (LLM)
BizFinBench: A Business-Driven Real-World Financial Benchmark for Evaluating LLMs

Guilong Lu, Xuntao Guo, Rongjunchen Zhang, Wenqiao Zhu, Ji Liu•May 26, 2025•594

PATS: Адаптивное переключение режимов мышления на уровне процессов
PATS: Process-Level Adaptive Thinking Mode Switching

Yi Wang, Junxiao Liu, Shimao Zhang, Jiajun Chen, Shujian Huang•May 25, 2025•452

Воплощенные агенты и персонализация: исследование использования памяти для персонализированной помощи
Embodied Agents Meet Personalization: Exploring Memory Utilization for Personalized Assistance

Taeyoon Kwon, Dongwook Choi, Sunghwan Kim, Hyojun Kim, Seungjun Moon, Beong-woo Kwak, Kuan-Hao Huang, Jinyoung Yeo•May 22, 2025•432

ARM: Адаптивная Модель Рассуждений
ARM: Adaptive Reasoning Model

Siye Wu, Jian Xie, Yikai Zhang, Aili Chen, Kai Zhang, Yu Su, Yanghua Xiao•May 26, 2025•414

Enigmata: Масштабирование логического мышления в больших языковых моделях с помощью синтетических проверяемых головоломок
Enigmata: Scaling Logical Reasoning in Large Language Models with Synthetic Verifiable Puzzles

Jiangjie Chen, Qianyu He, Siyu Yuan, Aili Chen, Zhicheng Cai, Weinan Dai, Hongli Yu, Qiying Yu, Xuefeng Li, Jiaze Chen, Hao Zhou, Mingxuan Wang•May 26, 2025•371

Расшифровка траекторно-ориентированного рассуждения LLM: оптимизационный подход
Deciphering Trajectory-Aided LLM Reasoning: An Optimization Perspective

Junnan Liu, Hongwei Liu, Linchen Xiao, Shudong Liu, Taolin Zhang, Zihan Ma, Songyang Zhang, Kai Chen•May 26, 2025•362

Суррогатные сигналы из формата и длины: обучение с подкреплением для решения математических задач без эталонных ответов
Surrogate Signals from Format and Length: Reinforcement Learning for Solving Mathematical Problems without Ground Truth Answers

Rihui Xin, Han Liu, Zecheng Wang, Yupeng Zhang, Dianbo Sui, Xiaolin Hu, Bingning Wang•May 26, 2025•292

B-score: Выявление смещений в больших языковых моделях с использованием истории ответов
B-score: Detecting biases in large language models using response history

An Vo, Mohammad Reza Taesiri, Daeyoung Kim, Anh Totti Nguyen•May 24, 2025•282

Flex-Judge: Думай один раз, оценивай где угодно
Flex-Judge: Think Once, Judge Anywhere

Jongwoo Ko, Sungnyun Kim, Sungwoo Cho, Se-Young Yun•May 24, 2025•252

MOOSE-Chem2: Исследование границ возможностей крупных языковых моделей в детализированном научном открытии гипотез с использованием иерархического поиска
MOOSE-Chem2: Exploring LLM Limits in Fine-Grained Scientific Hypothesis Discovery via Hierarchical Search

Zonglin Yang, Wanhao Liu, Ben Gao, Yujie Liu, Wei Li, Tong Xie, Lidong Bing, Wanli Ouyang, Erik Cambria, Dongzhan Zhou•May 25, 2025•242

Обучение рассуждениям без внешних вознаграждений
Learning to Reason without External Rewards

Xuandong Zhao, Zhewei Kang, Aosong Feng, Sergey Levine, Dawn Song•May 26, 2025•232

Могут ли многомодальные языковые модели указать мне путь домой? Бенчмарк-исследование по детализированному визуальному анализу транзитных карт
Can MLLMs Guide Me Home? A Benchmark Study on Fine-Grained Visual Reasoning from Transit Maps

Sicheng Feng, Song Wang, Shuyi Ouyang, Lingdong Kong, Zikai Song, Jianke Zhu, Huan Wang, Xinchao Wang•May 24, 2025•233

Пожизненное обеспечение безопасности для языковых моделей
Lifelong Safety Alignment for Language Models

Haoyu Wang, Zeyu Qin, Yifei Zhao, Chao Du, Min Lin, Xueqian Wang, Tianyu Pang•May 26, 2025•221

Jodi: Объединение задач визуальной генерации и понимания через совместное моделирование
Jodi: Unification of Visual Generation and Understanding via Joint Modeling

Yifeng Xu, Zhenliang He, Meina Kan, Shiguang Shan, Xilin Chen•May 25, 2025•202

StructEval: Оценка способностей языковых моделей к генерации структурированных данных
StructEval: Benchmarking LLMs' Capabilities to Generate Structural Outputs

Jialin Yang, Dongfu Jiang, Lipeng He, Sherman Siu, Yuxuan Zhang, Disen Liao, Zhuofeng Li, Huaye Zeng, Yiming Jia, Haozhe Wang, Benjamin Schneider, Chi Ruan, Wentao Ma, Zhiheng Lyu, Yifei Wang, Yi Lu, Quy Duc Do, Ziyan Jiang, Ping Nie, Wenhu Chen•May 26, 2025•181

Тонкая настройка с подкреплением усиливает способность к рассуждению мультимодальных больших языковых моделей.
Reinforcement Fine-Tuning Powers Reasoning Capability of Multimodal Large Language Models

Haoyuan Sun, Jiaqi Wu, Bo Xia, Yifu Luo, Yifei Zhao, Kai Qin, Xufei Lv, Tiantian Zhang, Yongzhe Chang, Xueqian Wang•May 24, 2025•183

REARANK: Агент повторного ранжирования на основе рассуждений с использованием обучения с подкреплением
REARANK: Reasoning Re-ranking Agent via Reinforcement Learning

Le Zhang, Bo Wang, Xipeng Qiu, Siva Reddy, Aishwarya Agrawal•May 26, 2025•172

ModernGBERT: Немецкоязычная 1B-модель-энкодер, обученная с нуля
ModernGBERT: German-only 1B Encoder Model Trained from Scratch

Anton Ehrmanntraut, Julia Wunderle, Jan Pfister, Fotis Jannidis, Andreas Hotho•May 19, 2025•172

Дискретный мост Маркова
Discrete Markov Bridge

Hengli Li, Yuxuan Wang, Song-Chun Zhu, Ying Nian Wu, Zilong Zheng•May 26, 2025•162

Omni-R1: Обучение с подкреплением для омнимодального рассуждения через совместную работу двух систем
Omni-R1: Reinforcement Learning for Omnimodal Reasoning via Two-System Collaboration

Hao Zhong, Muzhi Zhu, Zongze Du, Zheng Huang, Canyu Zhao, Mingyu Liu, Wen Wang, Hao Chen, Chunhua Shen•May 26, 2025•151

Какие атрибуты данных стимулируют математическое и программное мышление? Исследование с использованием функций влияния
Which Data Attributes Stimulate Math and Code Reasoning? An Investigation via Influence Functions

Siqi Kou, Qingyuan Tian, Hanwen Xu, Zihao Zeng, Zhijie Deng•May 26, 2025•151

Гибридный нейронно-MPM подход для интерактивного моделирования жидкостей в реальном времени
Hybrid Neural-MPM for Interactive Fluid Simulations in Real-Time

Jingxuan Xu, Hong Huang, Chuhang Zou, Manolis Savva, Yunchao Wei, Wuyang Chen•May 25, 2025•152

Кодирование на основе вибраций vs. Агентное кодирование: Основы и практические аспекты агентного ИИ
Vibe Coding vs. Agentic Coding: Fundamentals and Practical Implications of Agentic AI

Ranjan Sapkota, Konstantinos I. Roumeliotis, Manoj Karkee•May 26, 2025•142

"Сделано лучше, чем идеально: раскрытие эффективного рассуждения через структурированное многошаговое разложение"
Done Is Better than Perfect: Unlocking Efficient Reasoning by Structured Multi-Turn Decomposition

Zihao Zeng, Xuyao Huang, Boxiu Li, Hao Zhang, Zhijie Deng•May 26, 2025•132

Эффективное использование памяти в визуальном авторегрессионном моделировании с масштабно-осознанным сжатием кэша ключей и значений
Memory-Efficient Visual Autoregressive Modeling with Scale-Aware KV Cache Compression

Kunjun Li, Zigeng Chen, Cheng-Yen Yang, Jenq-Neng Hwang•May 26, 2025•132

AdaCtrl: В направлении адаптивного и управляемого рассуждения через бюджетирование с учетом сложности
AdaCtrl: Towards Adaptive and Controllable Reasoning via Difficulty-Aware Budgeting

Shijue Huang, Hongru Wang, Wanjun Zhong, Zhaochen Su, Jiazhan Feng, Bowen Cao, Yi R. Fung•May 24, 2025•132

В поисках эффективного рассуждения: ориентированный на данные бенчмарк для дистилляции цепочек рассуждений (CoT)
The Quest for Efficient Reasoning: A Data-Centric Benchmark to CoT Distillation

Ruichen Zhang, Rana Muhammad Shahroz Khan, Zhen Tan, Dawei Li, Song Wang, Tianlong Chen•May 24, 2025•123

Контрастное обучение с использованием сложных негативных примеров для детального геометрического понимания в крупных мультимодальных моделях
Hard Negative Contrastive Learning for Fine-Grained Geometric Understanding in Large Multimodal Models

Kai Sun, Yushi Bai, Zhen Yang, Jiajie Zhang, Ji Qi, Lei Hou, Juanzi Li•May 26, 2025•111

Принудительное управление: модели генерации видео способны обучаться и обобщать физически обоснованные управляющие сигналы
Force Prompting: Video Generation Models Can Learn and Generalize Physics-based Control Signals

Nate Gillman, Charles Herrmann, Michael Freeman, Daksh Aggarwal, Evan Luo, Deqing Sun, Chen Sun•May 26, 2025•112

G1: Развитие способностей восприятия и рассуждения в моделях "визуальный язык" с использованием обучения с подкреплением
G1: Bootstrapping Perception and Reasoning Abilities of Vision-Language Model via Reinforcement Learning

Liang Chen, Hongcheng Gao, Tianyu Liu, Zhiqi Huang, Flood Sung, Xinyu Zhou, Yuxin Wu, Baobao Chang•May 19, 2025•112

Переплетенное рассуждение для крупных языковых моделей с использованием обучения с подкреплением
Interleaved Reasoning for Large Language Models via Reinforcement Learning

Roy Xie, David Qiu, Deepak Gopinath, Dong Lin, Yanchao Sun, Chong Wang, Saloni Potdar, Bhuwan Dhingra•May 26, 2025•103

WHISTRESS: Обогащение транскрипций с помощью определения ударений в предложениях
WHISTRESS: Enriching Transcriptions with Sentence Stress Detection

Iddo Yosha, Dorin Shteyman, Yossi Adi•May 25, 2025•102

WINA: Взвешенная информированная активация нейронов для ускорения вывода больших языковых моделей
WINA: Weight Informed Neuron Activation for Accelerating Large Language Model Inference

Sihan Chen, Dan Zhao, Jongwoo Ko, Colby Banbury, Huiping Zhuang, Luming Liang, Tianyi Chen•May 26, 2025•92

От десятков часов до десятков тысяч: масштабирование обратного перевода для распознавания речи
From Tens of Hours to Tens of Thousands: Scaling Back-Translation for Speech Recognition

Tianduo Wang, Lu Xu, Wei Lu, Shanbo Cheng•May 22, 2025•92

MLR-Bench: Оценка ИИ-агентов в открытых исследованиях машинного обучения
MLR-Bench: Evaluating AI Agents on Open-Ended Machine Learning Research

Hui Chen, Miao Xiong, Yujie Lu, Wei Han, Ailin Deng, Yufei He, Jiaying Wu, Yibo Li, Yue Liu, Bryan Hooi•May 26, 2025•81

LLaDA 1.5: Оптимизация предпочтений с уменьшением дисперсии для крупномасштабных языковых диффузионных моделей
LLaDA 1.5: Variance-Reduced Preference Optimization for Large Language Diffusion Models

Fengqi Zhu, Rongzhen Wang, Shen Nie, Xiaolu Zhang, Chunwei Wu, Jun Hu, Jun Zhou, Jianfei Chen, Yankai Lin, Ji-Rong Wen, Chongxuan Li•May 25, 2025•82

STAR-R1: Пространственное преобразование и рассуждение через усиление мультимодальных языковых моделей
STAR-R1: Spatial TrAnsformation Reasoning by Reinforcing Multimodal LLMs

Zongzhao Li, Zongyang Ma, Mingze Li, Songyou Li, Yu Rong, Tingyang Xu, Ziqi Zhang, Deli Zhao, Wenbing Huang•May 21, 2025•82

InfantAgent-Next: Мультимодальный универсальный агент для автоматизированного взаимодействия с компьютером
InfantAgent-Next: A Multimodal Generalist Agent for Automated Computer Interaction

Bin Lei, Weitai Kang, Zijian Zhang, Winson Chen, Xi Xie, Shan Zuo, Mimi Xie, Ali Payani, Mingyi Hong, Yan Yan, Caiwen Ding•May 16, 2025•82

Принцип покрытия: концептуальная основа для понимания композиционного обобщения
The Coverage Principle: A Framework for Understanding Compositional Generalization

Hoyeon Chang, Jinho Park, Hanseul Cho, Sohee Yang, Miyoung Ko, Hyeonbin Hwang, Seungpil Won, Dohaeng Lee, Youbin Ahn, Minjoon Seo•May 26, 2025•71

Мощные атаки на вывод членства в больших наборах данных и (умеренно) крупных языковых моделях
Strong Membership Inference Attacks on Massive Datasets and (Moderately) Large Language Models

Jamie Hayes, Ilia Shumailov, Christopher A. Choquette-Choo, Matthew Jagielski, George Kaissis, Katherine Lee, Milad Nasr, Sahra Ghalebikesabi, Niloofar Mireshghallah, Meenatchi Sundaram Mutu Selva Annamalai, Igor Shilov, Matthieu Meeus, Yves-Alexandre de Montjoye, Franziska Boenisch, Adam Dziedzic, A. Feder Cooper•May 24, 2025•72

Динамические оценки рисков для агентов наступательной кибербезопасности
Dynamic Risk Assessments for Offensive Cybersecurity Agents

Boyi Wei, Benedikt Stroebl, Jiacen Xu, Joie Zhang, Zhou Li, Peter Henderson•May 23, 2025•72

Ускорение обучения Нэша на основе обратной связи от человека с использованием метода Mirror Prox
Accelerating Nash Learning from Human Feedback via Mirror Prox

Daniil Tiapkin, Daniele Calandriello, Denis Belomestny, Eric Moulines, Alexey Naumov, Kashif Rasul, Michal Valko, Pierre Menard•May 26, 2025•62

Переосмысление критериев выборки в обучении с подкреплением для рассуждений на основе языковых моделей: перспектива согласования компетенции и сложности
Rethinking the Sampling Criteria in Reinforcement Learning for LLM Reasoning: A Competence-Difficulty Alignment Perspective

Deyang Kong, Qi Guo, Xiangyu Xi, Wei Wang, Jingang Wang, Xunliang Cai, Shikun Zhang, Wei Ye•May 23, 2025•62

Позиция: Механистическая интерпретируемость должна уделять приоритетное внимание согласованности признаков в разреженных автоэнкодерах (SAE).
Position: Mechanistic Interpretability Should Prioritize Feature Consistency in SAEs

Xiangchen Song, Aashiq Muhamed, Yujia Zheng, Lingjing Kong, Zeyu Tang, Mona T. Diab, Virginia Smith, Kun Zhang•May 26, 2025•51

Не "переусердствуйте" с ранжированием текстов: действительно ли необходимо рассуждение?
Don't "Overthink" Passage Reranking: Is Reasoning Truly Necessary?

Nour Jedidi, Yung-Sung Chuang, James Glass, Jimmy Lin•May 22, 2025•52

Простая до неприличия защита от атак на уничтожение языковых моделей
An Embarrassingly Simple Defense Against LLM Abliteration Attacks

Harethah Abu Shairah, Hasan Abed Al Kader Hammoud, Bernard Ghanem, George Turkiyyah•May 25, 2025•42

Гибридное латентное рассуждение с использованием обучения с подкреплением
Hybrid Latent Reasoning via Reinforcement Learning

Zhenrui Yue, Bowen Jin, Huimin Zeng, Honglei Zhuang, Zhen Qin, Jinsung Yoon, Lanyu Shang, Jiawei Han, Dong Wang•May 24, 2025•42

Соединение методов обучения с учителем и обучения с подкреплением в математических рассуждениях
Bridging Supervised Learning and Reinforcement Learning in Math Reasoning

Huayu Chen, Kaiwen Zheng, Qinsheng Zhang, Ganqu Cui, Yin Cui, Haotian Ye, Tsung-Yi Lin, Ming-Yu Liu, Jun Zhu, Haoxiang Wang•May 23, 2025•42

GLEAM: Обучение обобщаемой стратегии исследования для активного построения карт в сложных трехмерных внутренних сценах
GLEAM: Learning Generalizable Exploration Policy for Active Mapping in Complex 3D Indoor Scenes

Xiao Chen, Tai Wang, Quanyi Li, Tao Huang, Jiangmiao Pang, Tianfan Xue•May 26, 2025•31

Типизация ошибок для более эффективных вознаграждений: улучшение моделей процессуальных вознаграждений с помощью иерархического контроля, учитывающего ошибки
Error Typing for Smarter Rewards: Improving Process Reward Models with Error-Aware Hierarchical Supervision

Tej Deep Pala, Panshul Sharma, Amir Zadeh, Chuan Li, Soujanya Poria•May 26, 2025•32

DoctorAgent-RL: Многозадачная система совместного обучения с подкреплением для многоходового клинического диалога
DoctorAgent-RL: A Multi-Agent Collaborative Reinforcement Learning System for Multi-Turn Clinical Dialogue

Yichun Feng, Jiawei Wang, Lu Zhou, Yixue Li•May 26, 2025•32

Архитектурные бэкдоры для кражи данных внутри батча и манипуляции выводами модели
Architectural Backdoors for Within-Batch Data Stealing and Model Inference Manipulation

Nicolas Küchler, Ivan Petrov, Conrad Grobler, Ilia Shumailov•May 23, 2025•32

UFT: Унификация контролируемой и подкрепляющей тонкой настройки
UFT: Unifying Supervised and Reinforcement Fine-Tuning

Mingyang Liu, Gabriele Farina, Asuman Ozdaglar•May 22, 2025•33

EquivPruner: Повышение эффективности и качества поиска на основе крупных языковых моделей через обрезку действий
EquivPruner: Boosting Efficiency and Quality in LLM-Based Search via Action Pruning

Jiawei Liu, Qisi Chen, Jianshu Zhang, Quan Liu, Defu Lian•May 22, 2025•33

DiSA: Постепенное затухание шага диффузии в авторегрессивной генерации изображений
DiSA: Diffusion Step Annealing in Autoregressive Image Generation

Qinyu Zhao, Jaskirat Singh, Ming Xu, Akshay Asthana, Stephen Gould, Liang Zheng•May 26, 2025•21

Видение — это вера, но в какой степени? Всесторонний анализ вербальной калибровки в моделях, объединяющих зрение и язык
Seeing is Believing, but How Much? A Comprehensive Analysis of Verbalized Calibration in Vision-Language Models

Weihao Xuan, Qingcheng Zeng, Heli Qi, Junjue Wang, Naoto Yokoya•May 26, 2025•21

FLAME-MoE: Прозрачная сквозная исследовательская платформа для языковых моделей с архитектурой "Смесь экспертов"
FLAME-MoE: A Transparent End-to-End Research Platform for Mixture-of-Experts Language Models

Hao Kang, Zichun Yu, Chenyan Xiong•May 26, 2025•21

MMIG-Bench: К всесторонней и объяснимой оценке моделей генерации мультимодальных изображений
MMIG-Bench: Towards Comprehensive and Explainable Evaluation of Multi-Modal Image Generation Models

Hang Hua, Ziyun Zeng, Yizhi Song, Yunlong Tang, Liu He, Daniel Aliaga, Wei Xiong, Jiebo Luo•May 26, 2025•22

Прагматический разум машин: отслеживание становления прагматической компетенции в крупных языковых моделях
The Pragmatic Mind of Machines: Tracing the Emergence of Pragmatic Competence in Large Language Models

Kefan Yu, Qingcheng Zeng, Weihao Xuan, Wanxin Li, Jingyi Wu, Rob Voigt•May 24, 2025•22

InstructPart: Сегментация частей объектов с ориентацией на задачи и логикой инструкций
InstructPart: Task-Oriented Part Segmentation with Instruction Reasoning

Zifu Wan, Yaqi Xie, Ce Zhang, Zhiqiu Lin, Zihan Wang, Simon Stepputtis, Deva Ramanan, Katia Sycara•May 23, 2025•22

TAGS: Фреймворк для тестирования "Универсал-Специалист" с расширенным поиском и верификацией на этапе рассуждений
TAGS: A Test-Time Generalist-Specialist Framework with Retrieval-Augmented Reasoning and Verification

Jianghao Wu, Feilong Tang, Yulong Li, Ming Hu, Haochen Xue, Shoaib Jameel, Yutong Xie, Imran Razzak•May 23, 2025•22

К всесторонней оценке крупных аудио-языковых моделей: Комплексный обзор
Towards Holistic Evaluation of Large Audio-Language Models: A Comprehensive Survey

Chih-Kai Yang, Neo S. Ho, Hung-yi Lee•May 21, 2025•22

EgoZero: Обучение роботов с использованием умных очков
EgoZero: Robot Learning from Smart Glasses

Vincent Liu, Ademi Adeniji, Haotian Zhan, Raunaq Bhirangi, Pieter Abbeel, Lerrel Pinto•May 26, 2025•11

MOLE: Извлечение и проверка метаданных в научных статьях с использованием языковых моделей (LLM)
MOLE: Metadata Extraction and Validation in Scientific Papers Using LLMs

Zaid Alyafeai, Maged S. Al-Shaibani, Bernard Ghanem•May 26, 2025•11

Рождение знаний: возникающие признаки во времени, пространстве и масштабе в крупных языковых моделях
The Birth of Knowledge: Emergent Features across Time, Space, and Scale in Large Language Models

Shashata Sawmya, Micah Adler, Nir Shavit•May 26, 2025•12

CASS: Транспиляция с Nvidia на AMD с использованием данных, моделей и бенчмаркинга
CASS: Nvidia to AMD Transpilation with Data, Models, and Benchmark

Ahmed Heakl, Sarim Hashmi, Gustavo Bertolo Stahl, Seung Hun Eddie Han, Salman Khan, Abdulrahman Mahmoud•May 22, 2025•12

Текстовые управляющие векторы могут улучшить визуальное понимание в мультимодальных крупных языковых моделях
Textual Steering Vectors Can Improve Visual Understanding in Multimodal Large Language Models

Woody Haosheng Gan, Deqing Fu, Julian Asilis, Ollie Liu, Dani Yogatama, Vatsal Sharan, Robin Jia, Willie Neiswanger•May 20, 2025•12

Осознающая опции временно абстрагированная ценность для обучения с подкреплением, ориентированного на цели, в автономном режиме
Option-aware Temporally Abstracted Value for Offline Goal-Conditioned Reinforcement Learning

Hongjoon Ahn, Heewoong Choi, Jisu Han, Taesup Moon•May 19, 2025•12