ChatPaper.ai
Открыть меню
Главная
Статьи Дня
arXiv
HuggingFace
Цены
Аккаунт
Рабочее пространство
🇷🇺
Русский
Loading...
•
•
•
•
•
•
•
•
•
•
Ежедневные Исследовательские Статьи по ИИ
Ежедневно отобранные исследовательские статьи по ИИ с переводами
February 18th, 2025
Большие языковые модели и сбои в математическом рассуждении
Large Language Models and Mathematical Reasoning Failures
Johan Boye, Birger Moell
•
Feb 17, 2025
•
3
3
EQ-VAE: Эквивариантно-регуляризованное латентное пространство для улучшенного генеративного моделирования изображений
EQ-VAE: Equivariance Regularized Latent Space for Improved Generative Image Modeling
Theodoros Kouzelis, Ioannis Kakogeorgiou, Spyros Gidaris, Nikos Komodakis
•
Feb 13, 2025
•
7
2
Dyve: Быстрое и медленное мышление для динамической верификации процессов
Dyve: Thinking Fast and Slow for Dynamic Process Verification
Jianyuan Zhong, Zeju Li, Zhijian Xu, Xiangyu Wen, Qiang Xu
•
Feb 16, 2025
•
7
2
Улучшенные эмбеддинги с использованием связанного Adam
Better Embeddings with Coupled Adam
Felix Stollenwerk, Tobias Stollenwerk
•
Feb 12, 2025
•
1
3
Мираж редактирования моделей: переосмысление оценки в реальных условиях
The Mirage of Model Editing: Revisiting Evaluation in the Wild
Wanli Yang, Fei Sun, Jiajun Tan, Xinyu Ma, Qi Cao, Dawei Yin, Huawei Shen, Xueqi Cheng
•
Feb 16, 2025
•
10
2
К эффективному предобучению с ограниченным объемом данных для предсказания атомных свойств
Towards Data-Efficient Pretraining for Atomic Property Prediction
Yasir Ghunaim, Hasan Abed Al Kader Hammoud, Bernard Ghanem
•
Feb 16, 2025
•
3
3
ReLearn: Забывание через Обучение для Больших Языковых Моделей
ReLearn: Unlearning via Learning for Large Language Models
Haoming Xu, Ningyuan Zhao, Liming Yang, Sendong Zhao, Shumin Deng, Mengru Wang, Bryan Hooi, Nay Oo, Huajun Chen, Ningyu Zhang
•
Feb 16, 2025
•
29
2
Диффузионные модели без использования классификатора без руководства
Diffusion Models without Classifier-free Guidance
Zhicong Tang, Jianmin Bao, Dong Chen, Baining Guo
•
Feb 17, 2025
•
7
2
Память, Бенчмарки и Роботы: Бенчмарк для решения сложных задач с использованием обучения с подкреплением
Memory, Benchmark & Robots: A Benchmark for Solving Complex Tasks with Reinforcement Learning
Egor Cherepanov, Nikita Kachaev, Alexey K. Kovalev, Aleksandr I. Panov
•
Feb 14, 2025
•
5
2
Измерение сложности языка как шумный нулевой прокси-показатель для оценки производительности LLM.
Language Complexity Measurement as a Noisy Zero-Shot Proxy for Evaluating LLM Performance
Birger Moell, Johan Boye
•
Feb 17, 2025
•
0
2
Покажите мне работу: требования фактчекеров к объяснимой автоматизированной проверке фактов
Show Me the Work: Fact-Checkers' Requirements for Explainable Automated Fact-Checking
Greta Warren, Irina Shklovski, Isabelle Augenstein
•
Feb 13, 2025
•
4
2
Диффузионное уточнение: настройка моделей диффузии с уточнением траектории шумоподавления
Diffusion-Sharpening: Fine-tuning Diffusion Models with Denoising Trajectory Sharpening
Ye Tian, Ling Yang, Xinchen Zhang, Yunhai Tong, Mengdi Wang, Bin Cui
•
Feb 17, 2025
•
16
3
SAFE-SQL: Самоулучшающееся контекстное обучение с тонкой выборкой примеров для преобразования текста в SQL.
SAFE-SQL: Self-Augmented In-Context Learning with Fine-grained Example Selection for Text-to-SQL
Jimin Lee, Ingeol Baek, Byeongjeong Kim, Hwanhee Lee
•
Feb 17, 2025
•
7
2
Исследователь: Масштабирование синтеза веб-траекторий, ориентированного на исследование, для мультимодальных веб-агентов
Explorer: Scaling Exploration-driven Web Trajectory Synthesis for Multimodal Web Agents
Vardaan Pahuja, Yadong Lu, Corby Rosset, Boyu Gou, Arindam Mitra, Spencer Whitehead, Yu Su, Ahmed Awadallah
•
Feb 17, 2025
•
10
2
Создание программиста, ориентированного на доказательства, который на 64% лучше, чем GPT-4o при ограниченности данных
Building A Proof-Oriented Programmer That Is 64% Better Than GPT-4o Under Data Scarsity
Dylan Zhang, Justin Wang, Tianran Sun
•
Feb 17, 2025
•
6
2
Один пример показан, много концепций известно! Рассуждения на основе контрпримеров в математических LLMs.
One Example Shown, Many Concepts Known! Counterexample-Driven Conceptual Reasoning in Mathematical LLMs
Yinghui Li, Jiayi Kuang, Haojing Huang, Zhikun Xu, Xinnian Liang, Yi Yu, Wenlian Lu, Yangning Li, Xiaoyu Tan, Chao Qu, Ying Shen, Hai-Tao Zheng, Philip S. Yu
•
Feb 12, 2025
•
7
2
PhysReason: Комплексный эталонный тест для оценки физически обоснованных рассуждений
PhysReason: A Comprehensive Benchmark towards Physics-Based Reasoning
Xinyu Zhang, Yuxuan Dong, Yanrui Wu, Jiaxing Huang, Chengyou Jia, Basura Fernando, Mike Zheng Shou, Lingling Zhang, Jun Liu
•
Feb 17, 2025
•
7
2
Видео-SALMONN-o1: Модель крупного языка с улучшенным рассуждением на основе аудио-визуальных данных
video-SALMONN-o1: Reasoning-enhanced Audio-visual Large Language Model
Guangzhi Sun, Yudong Yang, Jimin Zhuang, Changli Tang, Yixuan Li, Wei Li, Zejun MA, Chao Zhang
•
Feb 17, 2025
•
8
2
Кукушка: свободный наездник ИИ, выведенный массовым питанием в гнезде LLM
Cuckoo: An IE Free Rider Hatched by Massive Nutrition in LLM's Nest
Letian Peng, Zilong Wang, Feng Yao, Jingbo Shang
•
Feb 16, 2025
•
6
2
Запрос в любой модальности: всесторонний обзор мультимодального поисково-усиленного генеративного подхода
Ask in Any Modality: A Comprehensive Survey on Multimodal Retrieval-Augmented Generation
Mohammad Mahdi Abootorabi, Amirhosein Zobeiri, Mahdi Dehghani, Mohammadali Mohammadkhani, Bardia Mohammadi, Omid Ghahroodi, Mahdieh Soleymani Baghshah, Ehsaneddin Asgari
•
Feb 12, 2025
•
17
2
Я мыслю, следовательно, диффундирую: реализация мультимодального контекстного рассуждения в диффузионных моделях
I Think, Therefore I Diffuse: Enabling Multimodal In-Context Reasoning in Diffusion Models
Zhenxing Mi, Kuan-Chieh Wang, Guocheng Qian, Hanrong Ye, Runtao Liu, Sergey Tulyakov, Kfir Aberman, Dan Xu
•
Feb 12, 2025
•
35
3
Как LLM-модели приобретают новые знания? Перспектива циркуляции знаний о постоянном предварительном обучении.
How Do LLMs Acquire New Knowledge? A Knowledge Circuits Perspective on Continual Pre-Training
Yixin Ou, Yunzhi Yao, Ningyu Zhang, Hui Jin, Jiacheng Sun, Shumin Deng, Zhenguo Li, Huajun Chen
•
Feb 16, 2025
•
22
6
Генерация системных сообщений для пользовательских предпочтений с использованием моделей с открытым исходным кодом.
System Message Generation for User Preferences using Open-Source Models
Minbyul Jeong, Jungho Cho, Minsoo Khang, Dawoon Jung, Teakgyu Hong
•
Feb 17, 2025
•
15
2
Обучение политикам вставания для гуманоидных роботов в реальном мире.
Learning Getting-Up Policies for Real-World Humanoid Robots
Xialin He, Runpei Dong, Zixuan Chen, Saurabh Gupta
•
Feb 17, 2025
•
42
3
ILIAS: Поиск изображений на уровне экземпляров в масштабе
ILIAS: Instance-Level Image retrieval At Scale
Giorgos Kordopatis-Zilos, Vladan Stojnić, Anna Manko, Pavel Šuma, Nikolaos-Antonios Ypsilantis, Nikos Efthymiadis, Zakaria Laskar, Jiří Matas, Ondřej Chum, Giorgos Tolias
•
Feb 17, 2025
•
4
2
Нативное разреженное внимание: аппаратно-ориентированное и изначально обучаемое разреженное внимание
Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention
Jingyang Yuan, Huazuo Gao, Damai Dai, Junyu Luo, Liang Zhao, Zhengyan Zhang, Zhenda Xie, Y. X. Wei, Lean Wang, Zhiping Xiao, Yuqing Wang, Chong Ruan, Ming Zhang, Wenfeng Liang, Wangding Zeng
•
Feb 16, 2025
•
155
10
CRANE: Рассуждения с ограниченной генерацией LLM
CRANE: Reasoning with constrained LLM generation
Debangshu Banerjee, Tarun Suresh, Shubham Ugare, Sasa Misailovic, Gagandeep Singh
•
Feb 13, 2025
•
19
2
IHEval: Оценка языковых моделей на следование иерархии инструкций
IHEval: Evaluating Language Models on Following the Instruction Hierarchy
Zhihan Zhang, Shiyang Li, Zixuan Zhang, Xin Liu, Haoming Jiang, Xianfeng Tang, Yifan Gao, Zheng Li, Haodong Wang, Zhaoxuan Tan, Yichuan Li, Qingyu Yin, Bing Yin, Meng Jiang
•
Feb 12, 2025
•
19
2
Sailor2: Покорение Юго-Восточной Азии с инклюзивными многоязычными LLM
Sailor2: Sailing in South-East Asia with Inclusive Multilingual LLMs
Longxu Dou, Qian Liu, Fan Zhou, Changyu Chen, Zili Wang, Ziqi Jin, Zichen Liu, Tongyao Zhu, Cunxiao Du, Penghui Yang, Haonan Wang, Jiaheng Liu, Yongchi Zhao, Xiachong Feng, Xin Mao, Man Tsung Yeung, Kunat Pipatanakul, Fajri Koto, Min Si Thu, Hynek Kydlíček, Zeyi Liu, Qunshu Lin, Sittipong Sripaisarnmongkol, Kridtaphad Sae-Khow, Nirattisai Thongchim, Taechawat Konkaew, Narong Borijindargoon, Anh Dao, Matichon Maneegard, Phakphum Artkaew, Zheng-Xin Yong, Quan Nguyen, Wannaphong Phatthiyaphaibun, Hoang H. Tran, Mike Zhang, Shiqi Chen, Tianyu Pang, Chao Du, Xinyi Wan, Wei Lu, Min Lin
•
Feb 18, 2025
•
17
4
Может ли одна модель овладеть как многоходовыми диалогами, так и использованием инструментов? CALM: Унифицированная агентская языковая модель для диалогов
Can a Single Model Master Both Multi-turn Conversations and Tool Use? CALM: A Unified Conversational Agentic Language Model
Emre Can Acikgoz, Jeremiah Greer, Akul Datta, Ze Yang, William Zeng, Oussama Elachqar, Emmanouil Koukoumidis, Dilek Hakkani-Tür, Gokhan Tur
•
Feb 12, 2025
•
5
2
ExaGPT: Обнаружение машинно-сгенерированного текста на основе примеров для интерпретируемости человеком
ExaGPT: Example-Based Machine-Generated Text Detection for Human Interpretability
Ryuto Koike, Masahiro Kaneko, Ayana Niwa, Preslav Nakov, Naoaki Okazaki
•
Feb 17, 2025
•
1
2
Оценка данных с использованием нейронных сетей для эффективной тонкой настройки инструкций
Data Valuation using Neural Networks for Efficient Instruction Fine-Tuning
Ishika Agarwal, Dilek Hakkani-Tür
•
Feb 14, 2025
•
1
2
Интуитивное понимание физики возникает в результате самоконтролируемого предварительного обучения на естественных видеозаписях
Intuitive physics understanding emerges from self-supervised pretraining on natural videos
Quentin Garrido, Nicolas Ballas, Mahmoud Assran, Adrien Bardes, Laurent Najman, Michael Rabbat, Emmanuel Dupoux, Yann LeCun
•
Feb 17, 2025
•
19
2
Говорить структурно, действовать иерархически: совместная платформа для LLM мультиагентных систем
Talk Structurally, Act Hierarchically: A Collaborative Framework for LLM Multi-Agent Systems
Zhao Wang, Sota Moriyama, Wei-Yao Wang, Briti Gangopadhyay, Shingo Takamatsu
•
Feb 16, 2025
•
13
2
SWE-Lancer: Могут ли модели LLM "Frontier" заработать $1 миллион на фрилансе по программной инженерии в реальном мире?
SWE-Lancer: Can Frontier LLMs Earn $1 Million from Real-World Freelance Software Engineering?
Samuel Miserendino, Michele Wang, Tejal Patwardhan, Johannes Heidecke
•
Feb 17, 2025
•
45
5
SURGE: О потенциале крупных языковых моделей в качестве универсальных исполнителей кода-заменителей.
SURGE: On the Potential of Large Language Models as General-Purpose Surrogate Code Executors
Bohan Lyu, Siqiao Huang, Zichen Liang
•
Feb 16, 2025
•
10
2
MagicArticulate: Подготовьте ваши 3D-модели к артикуляции
MagicArticulate: Make Your 3D Models Articulation-Ready
Chaoyue Song, Jianfeng Zhang, Xiu Li, Fan Yang, Yiwen Chen, Zhongcong Xu, Jun Hao Liew, Xiaoyang Guo, Fayao Liu, Jiashi Feng, Guosheng Lin
•
Feb 17, 2025
•
8
2
HermesFlow: Безупречное сокрытие разрыва в мультимодальном понимании и генерации
HermesFlow: Seamlessly Closing the Gap in Multimodal Understanding and Generation
Ling Yang, Xinchen Zhang, Ye Tian, Chenming Shang, Minghao Xu, Wentao Zhang, Bin Cui
•
Feb 17, 2025
•
16
2