ChatPaper.aiChatPaper.ai
Главная

arXiv

HuggingFace

ЦеныАккаунтРабочее пространство

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

Ежедневные Исследовательские Статьи по ИИ

Ежедневно отобранные исследовательские статьи по ИИ с переводами

Web-Shepherd: Усовершенствование вероятностных моделей маршрутов для усиления веб-агентов
Web-Shepherd: Advancing PRMs for Reinforcing Web Agents

Hyungjoo Chae, Sunghwan Kim, Junhee Cho, Seungone Kim, Seungjun Moon, Gyeom Hwangbo, Dongha Lim, Minjin Kim, Yeonjun Hwang, Minju Gwak, Dongwook Choi, Minseok Kang, Gwanhoon Im, ByeongUng Cho, Hyojun Kim, Jun Hee Han, Taeyoon Kwon, Minju Kim, Beong-woo Kwak, Dongjin Kang, Jinyoung Yeo•May 21, 2025•864

MMaDA: Мультимодальные крупные диффузионные языковые модели
MMaDA: Multimodal Large Diffusion Language Models

Ling Yang, Ye Tian, Bowen Li, Xinchen Zhang, Ke Shen, Yunhai Tong, Mengdi Wang•May 21, 2025•643

Закон масштабирования для обучения с учетом квантования
Scaling Law for Quantization-Aware Training

Mengzhao Chen, Chaoyi Zhang, Jing Liu, Yutao Zeng, Zeyue Xue, Zhiheng Liu, Yunshui Li, Jin Ma, Jie Huang, Xun Zhou, Ping Luo•May 20, 2025•592

UniVG-R1: Универсальное визуальное закрепление с управлением рассуждениями и обучением с подкреплением
UniVG-R1: Reasoning Guided Universal Visual Grounding with Reinforcement Learning

Sule Bai, Mingxing Li, Yong Liu, Jing Tang, Haoji Zhang, Lei Sun, Xiangxiang Chu, Yansong Tang•May 20, 2025•465

Диффузионные и авторегрессивные языковые модели: перспектива текстовых эмбеддингов
Diffusion vs. Autoregressive Language Models: A Text Embedding Perspective

Siyue Zhang, Yilun Zhao, Liyuan Geng, Arman Cohan, Anh Tuan Luu, Chen Zhao•May 21, 2025•442

Эффективное обучение агентов для работы с компьютером
Efficient Agent Training for Computer Use

Yanheng He, Jiahe Jin, Pengfei Liu•May 20, 2025•372

На этот раз всё иначе: взгляд на временные ряды через призму наблюдаемости в моделях-основах
This Time is Different: An Observability Perspective on Time Series Foundation Models

Ben Cohen, Emaad Khwaja, Youssef Doubli, Salahidine Lemaachi, Chris Lettieri, Charles Masson, Hugo Miccinilli, Elise Ramé, Qiqi Ren, Afshin Rostamizadeh, Jean Ogier du Terrail, Anna-Monica Toon, Kan Wang, Stephan Xie, David Asker, Ameet Talwalkar, Othmane Abou-Amal•May 20, 2025•323

Научитесь эффективно рассуждать с адаптивным формированием вознаграждения на основе длины
Learn to Reason Efficiently with Adaptive Length-based Reward Shaping

Wei Liu, Ruochen Zhou, Yiyun Deng, Yuzhen Huang, Junteng Liu, Yuntian Deng, Yizhe Zhang, Junxian He•May 21, 2025•281

Создание трехмерного города из одного изображения
Constructing a 3D Town from a Single Image

Kaizhi Zheng, Ruijian Zhang, Jing Gu, Jie Yang, Xin Eric Wang•May 21, 2025•193

Когда продолжать размышлять: адаптивное переключение режимов мышления для эффективного рассуждения
When to Continue Thinking: Adaptive Thinking Mode Switching for Efficient Reasoning

Xiaoyun Zhang, Jingqing Ruan, Xing Ma, Yawen Zhu, Haodong Zhao, Hao Li, Jiansong Chen, Ke Zeng, Xunliang Cai•May 21, 2025•192

Vid2World: Создание моделей диффузии видео для интерактивных моделей мира
Vid2World: Crafting Video Diffusion Models to Interactive World Models

Siqiao Huang, Jialong Wu, Qixing Zhou, Shangchen Miao, Mingsheng Long•May 20, 2025•192

lmgame-Bench: Насколько хорошо языковые модели справляются с играми?
lmgame-Bench: How Good are LLMs at Playing Games?

Lanxiang Hu, Mingjia Huo, Yuxuan Zhang, Haoyang Yu, Eric P. Xing, Ion Stoica, Tajana Rosing, Haojian Jin, Hao Zhang•May 21, 2025•183

VerifyBench: Бенчмаркинг референс-ориентированных систем вознаграждения для крупных языковых моделей
VerifyBench: Benchmarking Reference-based Reward Systems for Large Language Models

Yuchen Yan, Jin Jiang, Zhenbang Ren, Yijun Li, Xudong Cai, Yang Liu, Xin Xu, Mengdi Zhang, Jian Shao, Yongliang Shen, Jun Xiao, Yueting Zhuang•May 21, 2025•162

Размышления о априорных данных: Надежные рассуждения крупных языковых моделей на графах знаний
Deliberation on Priors: Trustworthy Reasoning of Large Language Models on Knowledge Graphs

Jie Ma, Ning Qu, Zhitao Gao, Rui Xing, Jun Liu, Hongbin Pei, Jiang Xie, Linyun Song, Pinghui Wang, Jing Tao, Zhou Su•May 21, 2025•142

IA-T2I: Интернет-усиленная генерация изображений по тексту
IA-T2I: Internet-Augmented Text-to-Image Generation

Chuanhao Li, Jianwen Sun, Yukang Feng, Mingliang Zhai, Yifan Chang, Kaipeng Zhang•May 21, 2025•132

Обучение логическому рассуждению через смешение подходов (Mixture-of-Thought)
Learning to Reason via Mixture-of-Thought for Logical Reasoning

Tong Zheng, Lichang Chen, Simeng Han, R. Thomas McCoy, Heng Huang•May 21, 2025•122

dKV-Cache: Кэш для диффузионных языковых моделей
dKV-Cache: The Cache for Diffusion Language Models

Xinyin Ma, Runpeng Yu, Gongfan Fang, Xinchao Wang•May 21, 2025•112

Будьте осторожны при тонкой настройке открытых LLM: ваши данные для тонкой настройки могут быть тайно украдены!
Be Careful When Fine-tuning On Open-Source LLMs: Your Fine-tuning Data Could Be Secretly Stolen!

Zhexin Zhang, Yuhao Sun, Junxiao Yang, Shiyao Cui, Hongning Wang, Minlie Huang•May 21, 2025•112

Как повысить безопасность крупных моделей рассуждений: эмпирическое исследование
How Should We Enhance the Safety of Large Reasoning Models: An Empirical Study

Zhexin Zhang, Xian Qi Loye, Victor Shea-Jay Huang, Junxiao Yang, Qi Zhu, Shiyao Cui, Fei Mi, Lifeng Shang, Yingkang Wang, Hongning Wang, Minlie Huang•May 21, 2025•112

Мягкое мышление: раскрытие потенциала рассуждений больших языковых моделей в непрерывном пространстве концепций
Soft Thinking: Unlocking the Reasoning Potential of LLMs in Continuous Concept Space

Zhen Zhang, Xuehai He, Weixiang Yan, Ao Shen, Chenyang Zhao, Shuohang Wang, Yelong Shen, Xin Eric Wang•May 21, 2025•102

RLVR-World: Обучение моделей мира с использованием обучения с подкреплением
RLVR-World: Training World Models with Reinforcement Learning

Jialong Wu, Shaofeng Yin, Ningya Feng, Mingsheng Long•May 20, 2025•102

BARREL: Гранично-ориентированное рассуждение для фактологически точных и надежных LRM
BARREL: Boundary-Aware Reasoning for Factual and Reliable LRMs

Junxiao Yang, Jinzhe Tu, Haoran Liu, Xiaoce Wang, Chujie Zheng, Zhexin Zhang, Shiyao Cui, Caishun Chen, Tiantian He, Hongning Wang, Yew-Soon Ong, Minlie Huang•May 18, 2025•102

ConvSearch-R1: Улучшение реформулирования запросов для диалогового поиска с использованием рассуждений через обучение с подкреплением
ConvSearch-R1: Enhancing Query Reformulation for Conversational Search with Reasoning via Reinforcement Learning

Changtai Zhu, Siyin Wang, Ruijun Feng, Kai Song, Xipeng Qiu•May 21, 2025•92

Генерация текста за пределами дискретного сэмплирования токенов
Text Generation Beyond Discrete Token Sampling

Yufan Zhuang, Liyuan Liu, Chandan Singh, Jingbo Shang, Jianfeng Gao•May 20, 2025•72

Оценка смещения без ручных тестовых наборов: перспектива концептуального представления для крупных языковых моделей
Evaluate Bias without Manual Test Sets: A Concept Representation Perspective for LLMs

Lang Gao, Kaiyang Wan, Wei Liu, Chenxi Wang, Zirui Song, Zixiang Xu, Yanbo Wang, Veselin Stoyanov, Xiuying Chen•May 21, 2025•62

AutoMat: Автоматизированное восстановление кристаллической структуры на основе микроскопии с использованием агентных инструментов
AutoMat: Enabling Automated Crystal Structure Reconstruction from Microscopy via Agentic Tool Use

Yaotian Yang, Yiwen Tang, Yizhe Chen, Xiao Chen, Jiangjie Qiu, Hao Xiong, Haoyu Yin, Zhiyao Luo, Yifei Zhang, Sijia Tao, Wentao Li, Qinghua Zhang, Yuqiang Li, Wanli Ouyang, Bin Zhao, Xiaonan Wang, Fei Wei•May 19, 2025•62

DiCo: Возрождение сверточных сетей для масштабируемого и эффективного моделирования диффузии
DiCo: Revitalizing ConvNets for Scalable and Efficient Diffusion Modeling

Yuang Ai, Qihang Fan, Xuefeng Hu, Zhenheng Yang, Ran He, Huaibo Huang•May 16, 2025•52

Audio Jailbreak: Открытый всеобъемлющий бенчмарк для взлома крупных аудио-языковых моделей
Audio Jailbreak: An Open Comprehensive Benchmark for Jailbreaking Large Audio-Language Models

Zirui Song, Qian Jiang, Mingxuan Cui, Mingzhe Li, Lang Gao, Zeyu Zhang, Zixiang Xu, Yanbo Wang, Chenxi Wang, Guangxian Ouyang, Zhenhao Chen, Xiuying Chen•May 21, 2025•42

VARD: Эффективная и плотная тонкая настройка диффузионных моделей с использованием обучения с подкреплением на основе ценности
VARD: Efficient and Dense Fine-Tuning for Diffusion Models with Value-based RL

Fengyuan Dai, Zifeng Zhuang, Yufei Huang, Siteng Huang, Bangyan Liao, Donglin Wang, Fajie Yuan•May 21, 2025•32

PiFlow: Принципно-ориентированное научное открытие с использованием мультиагентного взаимодействия
PiFlow: Principle-aware Scientific Discovery with Multi-Agent Collaboration

Yingming Pu, Tao Lin, Hongyu Chen•May 21, 2025•32

RL Tango: Совместное усиление генератора и верификатора для языковых рассуждений
RL Tango: Reinforcing Generator and Verifier Together for Language Reasoning

Kaiwen Zha, Zhengqi Gao, Maohao Shen, Zhang-Wei Hong, Duane S. Boning, Dina Katabi•May 21, 2025•32

WebNovelBench: Оценка способностей LLM-авторов в создании веб-романов
WebNovelBench: Placing LLM Novelists on the Web Novel Distribution

Leon Lin, Jun Zheng, Haidong Wang•May 20, 2025•32

Предварительная инженерия промптов для тонкой настройки с подкреплением
Prior Prompt Engineering for Reinforcement Fine-Tuning

Pittawat Taveekitworachai, Potsawee Manakul, Sarana Nutanong, Kunat Pipatanakul•May 20, 2025•32

BLEUBERI: BLEU оказывается удивительно эффективной наградой для выполнения инструкций
BLEUBERI: BLEU is a surprisingly effective reward for instruction following

Yapei Chang, Yekyung Kim, Michael Krumdick, Amir Zadeh, Chuan Li, Chris Tanner, Mohit Iyyer•May 16, 2025•32

Оптимизация без потерь — устранение избыточности вычислений в LMM
Streamline Without Sacrifice - Squeeze out Computation Redundancy in LMM

Penghao Wu, Lewei Lu, Ziwei Liu•May 21, 2025•22

Масштабирование и улучшение AVSR на основе LLM: подход с использованием разреженной смеси проекторов
Scaling and Enhancing LLM-based AVSR: A Sparse Mixture of Projectors Approach

Umberto Cappellazzo, Minsu Kim, Stavros Petridis, Daniele Falavigna, Alessio Brutti•May 20, 2025•22

BanditSpec: Адаптивное спекулятивное декодирование с использованием бандитских алгоритмов
BanditSpec: Adaptive Speculative Decoding via Bandit Algorithms

Yunlong Hou, Fengzhuo Zhang, Cunxiao Du, Xuan Zhang, Jiachun Pan, Tianyu Pang, Chao Du, Vincent Y. F. Tan, Zhuoran Yang•May 21, 2025•12

Необъяснимая эффективность минимизации энтропии в рассуждениях языковых моделей
The Unreasonable Effectiveness of Entropy Minimization in LLM Reasoning

Shivam Agarwal, Zimin Zhang, Lifan Yuan, Jiawei Han, Hao Peng•May 21, 2025•12

MultiHal: Многоязычный набор данных для оценки галлюцинаций языковых моделей на основе графов знаний
MultiHal: Multilingual Dataset for Knowledge-Graph Grounded Evaluation of LLM Hallucinations

Ernests Lavrinovics, Russa Biswas, Katja Hose, Johannes Bjerva•May 20, 2025•12

HumaniBench: Человеко-ориентированная структура для оценки крупных мультимодальных моделей
HumaniBench: A Human-Centric Framework for Large Multimodal Models Evaluation

Shaina Raza, Aravind Narayanan, Vahid Reza Khazaie, Ashmal Vayani, Mukund S. Chettiar, Amandeep Singh, Mubarak Shah, Deval Pandya•May 16, 2025•12

Специфические знания о языке: Модели лучше справляются с X, чем с английским?
Language Specific Knowledge: Do Models Know Better in X than in English?

Ishika Agarwal, Nimet Beyza Bozdag, Dilek Hakkani-Tür•May 21, 2025•02

Обучение в контексте улучшает распознавание речи за счет адаптации, подобной человеческой, к говорящим и языковым разновидностям
In-Context Learning Boosts Speech Recognition via Human-like Adaptation to Speakers and Language Varieties

Nathan Roll, Calbert Graham, Yuka Tatsumi, Kim Tien Nguyen, Meghan Sumner, Dan Jurafsky•May 20, 2025•02