ChatPaper.aiChatPaper.ai
Главная

arXiv

HuggingFace

ЦеныАккаунтРабочее пространство

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

Ежедневные Исследовательские Статьи по ИИ

Ежедневно отобранные исследовательские статьи по ИИ с переводами

NovelSeek: Когда агент становится ученым — создание замкнутой системы от гипотезы до проверки
NovelSeek: When Agent Becomes the Scientist -- Building Closed-Loop System from Hypothesis to Verification

NovelSeek Team, Bo Zhang, Shiyang Feng, Xiangchao Yan, Jiakang Yuan, Zhiyin Yu, Xiaohan He, Songtao Huang, Shaowei Hou, Zheng Nie, Zhilong Wang, Jinyao Liu, Runmin Ma, Tianshuo Peng, Peng Ye, Dongzhan Zhou, Shufei Zhang, Xiaosong Wang, Yilan Zhang, Meng Li, Zhongying Tu, Xiangyu Yue, Wangli Ouyang, Bowen Zhou, Lei Bai•May 22, 2025•861

Масштабирование рассуждений, потеря контроля: оценка выполнения инструкций в крупных моделях рассуждений
Scaling Reasoning, Losing Control: Evaluating Instruction Following in Large Reasoning Models

Tingchen Fu, Jiawei Gu, Yafu Li, Xiaoye Qu, Yu Cheng•May 20, 2025•492

Tool-Star: Усиление многозадачного анализатора с языковой моделью через обучение с подкреплением
Tool-Star: Empowering LLM-Brained Multi-Tool Reasoner via Reinforcement Learning

Guanting Dong, Yifei Chen, Xiaoxi Li, Jiajie Jin, Hongjin Qian, Yutao Zhu, Hangyu Mao, Guorui Zhou, Zhicheng Dou, Ji-Rong Wen•May 22, 2025•432

Pixel Reasoner: Стимулирование рассуждений в пиксельном пространстве с помощью обучения с подкреплением, основанного на любопытстве
Pixel Reasoner: Incentivizing Pixel-Space Reasoning with Curiosity-Driven Reinforcement Learning

Alex Su, Haozhe Wang, Weimin Ren, Fangzhen Lin, Wenhu Chen•May 21, 2025•372

KRIS-Bench: Бенчмаркинг моделей интеллектуального редактирования изображений следующего уровня
KRIS-Bench: Benchmarking Next-Level Intelligent Image Editing Models

Yongliang Wu, Zonghui Li, Xinting Hu, Xinyu Ye, Xianfang Zeng, Gang Yu, Wenbo Zhu, Bernt Schiele, Ming-Hsuan Yang, Xu Yang•May 22, 2025•362

QuickVideo: Понимание длинных видео в реальном времени с совместной разработкой системных алгоритмов
QuickVideo: Real-Time Long Video Understanding with System Algorithm Co-Design

Benjamin Schneider, Dongfu Jiang, Chao Du, Tianyu Pang, Wenhu Chen•May 22, 2025•302

GoT-R1: Раскрытие способности к рассуждению MLLM для визуальной генерации с использованием обучения с подкреплением
GoT-R1: Unleashing Reasoning Capability of MLLM for Visual Generation with Reinforcement Learning

Chengqi Duan, Rongyao Fang, Yuqing Wang, Kun Wang, Linjiang Huang, Xingyu Zeng, Hongsheng Li, Xihui Liu•May 22, 2025•232

LLaDA-V: Модели крупномасштабной языковой диффузии с визуальной настройкой инструкций
LLaDA-V: Large Language Diffusion Models with Visual Instruction Tuning

Zebin You, Shen Nie, Xiaolu Zhang, Jun Hu, Jun Zhou, Zhiwu Lu, Ji-Rong Wen, Chongxuan Li•May 22, 2025•223

Эффективное масштабирование диффузионных трансформаторов с использованием μP
Scaling Diffusion Transformers Efficiently via μP

Chenyu Zheng, Xinyu Zhang, Rongzhen Wang, Wei Huang, Zhi Tian, Weilin Huang, Jun Zhu, Chongxuan Li•May 21, 2025•212

Риск-аверсивное обучение с подкреплением с использованием потери Итакуры-Сайто
Risk-Averse Reinforcement Learning with Itakura-Saito Loss

Igor Udovichenko, Olivier Croissant, Anita Toleutaeva, Evgeny Burnaev, Alexander Korotin•May 22, 2025•202

Понимание возможностей генеративного ИИ в повседневных задачах редактирования изображений
Understanding Generative AI Capabilities in Everyday Image Editing Tasks

Mohammad Reza Taesiri, Brandon Collins, Logan Bolton, Viet Dac Lai, Franck Dernoncourt, Trung Bui, Anh Totti Nguyen•May 22, 2025•202

AceReason-Nemotron: Улучшение математического и программного мышления с помощью обучения с подкреплением
AceReason-Nemotron: Advancing Math and Code Reasoning through Reinforcement Learning

Yang Chen, Zhuolin Yang, Zihan Liu, Chankyu Lee, Peng Xu, Mohammad Shoeybi, Bryan Catanzaro, Wei Ping•May 22, 2025•182

Обратите внимание на разрыв: преодоление скачка мысли для улучшения настройки цепочки рассуждений
Mind the Gap: Bridging Thought Leap for Improved Chain-of-Thought Tuning

Haolei Xu, Yuchen Yan, Yongliang Shen, Wenqi Zhang, Guiyang Hou, Shengpei Jiang, Kaitao Song, Weiming Lu, Jun Xiao, Yueting Zhuang•May 20, 2025•181

Позволим языковым моделям освободиться от чрезмерного анализа через настройку с самоограничением
Let LLMs Break Free from Overthinking via Self-Braking Tuning

Haoran Zhao, Yuchen Yan, Yongliang Shen, Haolei Xu, Wenqi Zhang, Kaitao Song, Jian Shao, Weiming Lu, Jun Xiao, Yueting Zhuang•May 20, 2025•182

VideoGameQA-Bench: Оценка моделей "визуальный язык" для обеспечения качества видеоигр
VideoGameQA-Bench: Evaluating Vision-Language Models for Video Game Quality Assurance

Mohammad Reza Taesiri, Abhijay Ghildyal, Saman Zadtootaghaj, Nabajeet Barman, Cor-Paul Bezemer•May 21, 2025•172

Dimple: Дискретная диффузионная мультимодальная большая языковая модель с параллельным декодированием
Dimple: Discrete Diffusion Multimodal Large Language Model with Parallel Decoding

Runpeng Yu, Xinyin Ma, Xinchao Wang•May 22, 2025•142

Очистка бэкдоров без внешнего руководства при тонкой настройке MLLM
Backdoor Cleaning without External Guidance in MLLM Fine-tuning

Xuankun Rong, Wenke Huang, Jian Liang, Jinhe Bi, Xun Xiao, Yiming Li, Bo Du, Mang Ye•May 22, 2025•142

SophiaVL-R1: Усиление способности мультимодальных языковых моделей к рассуждению с помощью награды за мышление
SophiaVL-R1: Reinforcing MLLMs Reasoning with Thinking Reward

Kaixuan Fan, Kaituo Feng, Haoming Lyu, Dongzhan Zhou, Xiangyu Yue•May 22, 2025•122

Исправление данных, ухудшающих производительность: каскадные LLM для перемаркировки сложных негативных примеров с целью повышения устойчивости информационного поиска
Fixing Data That Hurts Performance: Cascading LLMs to Relabel Hard Negatives for Robust Information Retrieval

Nandan Thakur, Crystina Zhang, Xueguang Ma, Jimmy Lin•May 22, 2025•123

Эффективная генерация видео без обучения с помощью динамического вырезания токенов
Training-Free Efficient Video Generation via Dynamic Token Carving

Yuechen Zhang, Jinbo Xing, Bin Xia, Shaoteng Liu, Bohao Peng, Xin Tao, Pengfei Wan, Eric Lo, Jiaya Jia•May 22, 2025•122

SpatialScore: К унифицированной оценке мультимодального пространственного понимания
SpatialScore: Towards Unified Evaluation for Multimodal Spatial Understanding

Haoning Wu, Xiao Huang, Yaohui Chen, Ya Zhang, Yanfeng Wang, Weidi Xie•May 22, 2025•102

LaViDa: Крупная диффузионная языковая модель для мультимодального понимания
LaViDa: A Large Diffusion Language Model for Multimodal Understanding

Shufan Li, Konstantinos Kallidromitis, Hritik Bansal, Akash Gokul, Yusuke Kato, Kazuki Kozuka, Jason Kuen, Zhe Lin, Kai-Wei Chang, Aditya Grover•May 22, 2025•102

TinyV: Снижение ложных отрицаний при верификации улучшает обучение с подкреплением для рассуждений на основе больших языковых моделей
TinyV: Reducing False Negatives in Verification Improves RL for LLM Reasoning

Zhangchen Xu, Yuetai Li, Fengqing Jiang, Bhaskar Ramasubramanian, Luyao Niu, Bill Yuchen Lin, Radha Poovendran•May 20, 2025•102

Думать или нет? Избирательное рассуждение с использованием обучения с подкреплением для моделей, работающих с визуальными и языковыми данными
Think or Not? Selective Reasoning via Reinforcement Learning for Vision-Language Models

Jiaqi Wang, Kevin Qinghong Lin, James Cheng, Mike Zheng Shou•May 22, 2025•72

WebAgent-R1: Обучение веб-агентов с помощью сквозного многозадачного обучения с подкреплением
WebAgent-R1: Training Web Agents via End-to-End Multi-Turn Reinforcement Learning

Zhepei Wei, Wenlin Yao, Yao Liu, Weizhi Zhang, Qin Lu, Liang Qiu, Changlong Yu, Puyang Xu, Chao Zhang, Bing Yin, Hyokun Yun, Lihong Li•May 22, 2025•72

Бесподготовочное рассуждение и рефлексия в многомодальных языковых моделях (MLLMs)
Training-Free Reasoning and Reflection in MLLMs

Hongchen Wei, Zhenzhong Chen•May 22, 2025•73

GRIT: Обучение мультимодальных языковых моделей мыслить с помощью изображений
GRIT: Teaching MLLMs to Think with Images

Yue Fan, Xuehai He, Diji Yang, Kaizhi Zheng, Ching-Chen Kuo, Yuting Zheng, Sravana Jyothi Narayanaraju, Xinze Guan, Xin Eric Wang•May 21, 2025•72

AGENTIF: Оценка способности крупных языковых моделей следовать инструкциям в агентных сценариях
AGENTIF: Benchmarking Instruction Following of Large Language Models in Agentic Scenarios

Yunjia Qi, Hao Peng, Xiaozhi Wang, Amy Xin, Youfeng Liu, Bin Xu, Lei Hou, Juanzi Li•May 22, 2025•62

VLM-R^3: Распознавание областей, логические рассуждения и уточнение для улучшенного мультимодального цепочки рассуждений
VLM-R^3: Region Recognition, Reasoning, and Refinement for Enhanced Multimodal Chain-of-Thought

Chaoya Jiang, Yongrui Heng, Wei Ye, Han Yang, Haiyang Xu, Ming Yan, Ji Zhang, Fei Huang, Shikun Zhang•May 22, 2025•62

OViP: Онлайн-обучение предпочтениям на основе зрения и языка
OViP: Online Vision-Language Preference Learning

Shujun Liu, Siyuan Wang, Zejun Li, Jianxiang Wang, Cheng Zeng, Zhongyu Wei•May 21, 2025•62

Обучение верификаторов пошагового рассуждения с использованием инструментов формальной верификации
Training Step-Level Reasoning Verifiers with Formal Verification Tools

Ryo Kamoi, Yusen Zhang, Nan Zhang, Sarkar Snigdha Sarathi Das, Rui Zhang•May 21, 2025•62

SafeKey: Усиление инсайтов "ага-моментов" для обеспечения безопасности в рассуждениях
SafeKey: Amplifying Aha-Moment Insights for Safety Reasoning

Kaiwen Zhou, Xuandong Zhao, Gaowen Liu, Jayanth Srinivasa, Aosong Feng, Dawn Song, Xin Eric Wang•May 22, 2025•52

Обучение с подкреплением тонко настраивает небольшие подсети в крупных языковых моделях.
Reinforcement Learning Finetunes Small Subnetworks in Large Language Models

Sagnik Mukherjee, Lifan Yuan, Dilek Hakkani-Tur, Hao Peng•May 16, 2025•52

Think-RM: Обеспечение долгосрочного рассуждения в генеративных моделях вознаграждения
Think-RM: Enabling Long-Horizon Reasoning in Generative Reward Models

Ilgee Hong, Changlong Yu, Liang Qiu, Weixiang Yan, Zhenghao Xu, Haoming Jiang, Qingru Zhang, Qin Lu, Xin Liu, Chao Zhang, Tuo Zhao•May 22, 2025•42

Пусть андроиды видят сны об электрических овцах: Фреймворк для понимания и рассуждений о человекообразных изображениях
Let Androids Dream of Electric Sheep: A Human-like Image Implication Understanding and Reasoning Framework

Chenhao Zhang, Yazhe Niu•May 22, 2025•33

Multi-SpatialMLLM: Многофреймовое пространственное понимание с использованием мультимодальных крупных языковых моделей
Multi-SpatialMLLM: Multi-Frame Spatial Understanding with Multi-Modal Large Language Models

Runsen Xu, Weiyao Wang, Hao Tang, Xingyu Chen, Xiaodong Wang, Fu-Jen Chu, Dahua Lin, Matt Feiszli, Kevin J. Liang•May 22, 2025•32

Robo2VLM: Визуальный вопросно-ответный анализ на основе крупномасштабных наборов данных о манипуляциях роботов в реальных условиях
Robo2VLM: Visual Question Answering from Large-Scale In-the-Wild Robot Manipulation Datasets

Kaiyuan Chen, Shuangyu Xie, Zehan Ma, Ken Goldberg•May 21, 2025•32

Управление крупными языковыми моделями для персонализации машинного перевода
Steering Large Language Models for Machine Translation Personalization

Daniel Scalena, Gabriele Sarti, Arianna Bisazza, Elisabetta Fersini, Malvina Nissim•May 22, 2025•22

Когда языковые модели признают свои ошибки? Изучение роли уверенности модели в отказе от утверждений
When Do LLMs Admit Their Mistakes? Understanding the Role of Model Belief in Retraction

Yuqing Yang, Robin Jia•May 22, 2025•22

Фрагменты дат: скрытое узкое место токенизации для временного анализа
Date Fragments: A Hidden Bottleneck of Tokenization for Temporal Reasoning

Gagan Bhatia, Maxime Peyrard, Wei Zhao•May 22, 2025•22

Как крупные визуально-языковые модели воспринимают текст на изображениях? Раскрытие уникальной роли OCR-модулей
How Do Large Vision-Language Models See Text in Image? Unveiling the Distinctive Role of OCR Heads

Ingeol Baek, Hwan Chang, Sunghyun Ryu, Hwanhee Lee•May 21, 2025•22

RAVENEA: Бенчмарк для мультимодального поиска и анализа визуальной культуры
RAVENEA: A Benchmark for Multimodal Retrieval-Augmented Visual Culture Understanding

Jiaang Li, Yifei Yuan, Wenyan Li, Mohammad Aliannejadi, Daniel Hershcovich, Anders Søgaard, Ivan Vulić, Wenxuan Zhang, Paul Pu Liang, Yang Deng, Serge Belongie•May 20, 2025•22

MUG-Eval: Фреймворк для прокси-оценки возможностей многоязычной генерации на любом языке
MUG-Eval: A Proxy Evaluation Framework for Multilingual Generation Capabilities in Any Language

Seyoung Song, Seogyeong Jeong, Eunsu Kim, Jiho Jin, Dongkwan Kim, Jay Shin, Alice Oh•May 20, 2025•22

RoPECraft: Бестренировочный перенос движения с оптимизацией RoPE, управляемой траекторией, на диффузионных трансформерах
RoPECraft: Training-Free Motion Transfer with Trajectory-Guided RoPE Optimization on Diffusion Transformers

Ahmet Berke Gokmen, Yigit Ekin, Bahri Batuhan Bilecen, Aysegul Dundar•May 19, 2025•22

SPhyR: Бенчмарк пространственно-физического анализа распределения материалов
SPhyR: Spatial-Physical Reasoning Benchmark on Material Distribution

Philipp D. Siedler•May 21, 2025•12

gen2seg: Генеративные модели обеспечивают обобщаемую сегментацию экземпляров
gen2seg: Generative Models Enable Generalizable Instance Segmentation

Om Khangaonkar, Hamed Pirsiavash•May 21, 2025•12

SAKURA: О многошаговом рассуждении крупных аудио-языковых моделей на основе речевой и аудиоинформации
SAKURA: On the Multi-hop Reasoning of Large Audio-Language Models Based on Speech and Audio Information

Chih-Kai Yang, Neo Ho, Yen-Ting Piao, Hung-yi Lee•May 19, 2025•02