ChatPaper.ai
Открыть меню
Главная
Статьи Дня
arXiv
HuggingFace
Цены
Аккаунт
Рабочее пространство
🇷🇺
Русский
Loading...
•
•
•
•
•
•
•
•
•
•
Ежедневные Исследовательские Статьи по ИИ
Ежедневно отобранные исследовательские статьи по ИИ с переводами
October 11th, 2024
Советник по данным: Динамическая курирование данных для обеспечения безопасности крупных языковых моделей.
Data Advisor: Dynamic Data Curation for Safety Alignment of Large Language Models
Fei Wang, Ninareh Mehrabi, Palash Goyal, Rahul Gupta, Kai-Wei Chang, Aram Galstyan
•
Oct 7, 2024
•
3
2
DART: Денойзинг авторегрессивный трансформер для масштабируемой генерации текста в изображение
DART: Denoising Autoregressive Transformer for Scalable Text-to-Image Generation
Jiatao Gu, Yuyang Wang, Yizhe Zhang, Qihang Zhang, Dinghuai Zhang, Navdeep Jaitly, Josh Susskind, Shuangfei Zhai
•
Oct 10, 2024
•
25
2
Векторное обучение в контексте: обучение с непрерывными векторными представлениями
Vector-ICL: In-context Learning with Continuous Vector Representations
Yufan Zhuang, Chandan Singh, Liyuan Liu, Jingbo Shang, Jianfeng Gao
•
Oct 8, 2024
•
3
3
Оценка процесса генерации агентичных рабочих процессов
Benchmarking Agentic Workflow Generation
Shuofei Qiao, Runnan Fang, Zhisong Qiu, Xiaobin Wang, Ningyu Zhang, Yong Jiang, Pengjun Xie, Fei Huang, Huajun Chen
•
Oct 10, 2024
•
27
2
Всё везде сразу: LLM-модели могут изучать несколько задач в контексте одновременно.
Everything Everywhere All at Once: LLMs can In-Context Learn Multiple Tasks in Superposition
Zheyang Xiong, Ziyang Cai, John Cooper, Albert Ge, Vasilis Papageorgiou, Zack Sifakis, Angeliki Giannou, Ziqian Lin, Liu Yang, Saurabh Agarwal, Grigorios G Chrysos, Samet Oymak, Kangwook Lee, Dimitris Papailiopoulos
•
Oct 8, 2024
•
11
2
DICE: Дискретная Инверсия, Обеспечивающая Управляемое Редактирование для Мультиномиальных Диффузионных и Маскированных Генеративных Моделей
DICE: Discrete Inversion Enabling Controllable Editing for Multinomial Diffusion and Masked Generative Models
Xiaoxiao He, Ligong Han, Quan Dao, Song Wen, Minhao Bai, Di Liu, Han Zhang, Martin Renqiang Min, Felix Juefei-Xu, Chaowei Tan, Bo Liu, Kang Li, Hongdong Li, Junzhou Huang, Faez Ahmed, Akash Srivastava, Dimitris Metaxas
•
Oct 10, 2024
•
19
2
Сохранение мультимодальных возможностей предварительно обученных VLM для улучшения композициональности видовой и лингвистической информации.
Preserving Multi-Modal Capabilities of Pre-trained VLMs for Improving Vision-Linguistic Compositionality
Youngtaek Oh, Jae Won Cho, Dong-Jin Kim, In So Kweon, Junmo Kim
•
Oct 7, 2024
•
11
3
Оптима: Оптимизация эффективности и эффективности для мультиагентной системы на основе LLM.
Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System
Weize Chen, Jiarui Yuan, Chen Qian, Cheng Yang, Zhiyuan Liu, Maosong Sun
•
Oct 10, 2024
•
8
2
Исправленное диффузное: Прямота не является вашей необходимостью в исправленном потоке
Rectified Diffusion: Straightness Is Not Your Need in Rectified Flow
Fu-Yun Wang, Ling Yang, Zhaoyang Huang, Mengdi Wang, Hongsheng Li
•
Oct 9, 2024
•
18
3
LPZero: Поиск прокси-модели языка нулевой стоимости с нуля
LPZero: Language Model Zero-cost Proxy Search from Zero
Peijie Dong, Lujun Li, Xiang Liu, Zhenheng Tang, Xuebo Liu, Qiang Wang, Xiaowen Chu
•
Oct 7, 2024
•
2
2
MLLM в качестве ретриевера: интерактивное обучение мультимодальному поиску для инкорпорированных агентов
MLLM as Retriever: Interactively Learning Multimodal Retrieval for Embodied Agents
Junpeng Yue, Xinru Xu, Börje F. Karlsson, Zongqing Lu
•
Oct 4, 2024
•
37
2
MathCoder2: Улучшенное математическое рассуждение благодаря продолженному предварительному обучению на модельно-переведенном математическом коде
MathCoder2: Better Math Reasoning from Continued Pretraining on Model-translated Mathematical Code
Zimu Lu, Aojun Zhou, Ke Wang, Houxing Ren, Weikang Shi, Junting Pan, Mingjie Zhan, Hongsheng Li
•
Oct 10, 2024
•
47
2
Прогрессивные авторегрессионные модели диффузии видео
Progressive Autoregressive Video Diffusion Models
Desai Xie, Zhan Xu, Yicong Hong, Hao Tan, Difan Liu, Feng Liu, Arie Kaufman, Yang Zhou
•
Oct 10, 2024
•
16
4
Мошенничество на автоматических бенчмарках LLM: Нулевые модели достигают высоких показателей побед.
Cheating Automatic LLM Benchmarks: Null Models Achieve High Win Rates
Xiaosen Zheng, Tianyu Pang, Chao Du, Qian Liu, Jing Jiang, Min Lin
•
Oct 9, 2024
•
7
2
Zebra: контекстное и генеративное предварительное обучение для решения параметрических уравнений в частных производных
Zebra: In-Context and Generative Pretraining for Solving Parametric PDEs
Louis Serrano, Armand Kassaï Koupaï, Thomas X Wang, Pierre Erbacher, Patrick Gallinari
•
Oct 4, 2024
•
2
2
Захватывающие свойства крупных моделей языка и зрения
Intriguing Properties of Large Language and Vision Models
Young-Jun Lee, Byungsoo Ko, Han-Gyu Kim, Yechan Hwang, Ho-Jin Choi
•
Oct 7, 2024
•
16
4
Агент S: Открытая агентная структура, использующая компьютеры подобно человеку.
Agent S: An Open Agentic Framework that Uses Computers Like a Human
Saaket Agashe, Jiuzhou Han, Shuyu Gan, Jiachen Yang, Ang Li, Xin Eric Wang
•
Oct 10, 2024
•
24
2
Возникающие свойства с повторяющимися примерами
Emergent properties with repeated examples
François Charton, Julia Kempe
•
Oct 9, 2024
•
8
3
К самосовершенствованию LLM с помощью MCTS: использование пошаговых знаний с обучением предпочтений учебного плана
Towards Self-Improvement of LLMs via MCTS: Leveraging Stepwise Knowledge with Curriculum Preference Learning
Xiyao Wang, Linfeng Song, Ye Tian, Dian Yu, Baolin Peng, Haitao Mi, Furong Huang, Dong Yu
•
Oct 9, 2024
•
10
2
PrefixQuant: Статическая квантизация превосходит динамическую за счет предварительно заданных выбросов в LLMs
PrefixQuant: Static Quantization Beats Dynamic through Prefixed Outliers in LLMs
Mengzhao Chen, Yi Liu, Jiahao Wang, Yi Bin, Wenqi Shao, Ping Luo
•
Oct 7, 2024
•
31
2
WALL-E: Выравнивание мира посредством обучения правил улучшает модель мира на основе LLM агентов
WALL-E: World Alignment by Rule Learning Improves World Model-based LLM Agents
Siyu Zhou, Tianyi Zhou, Yijun Yang, Guodong Long, Deheng Ye, Jing Jiang, Chengqi Zhang
•
Oct 9, 2024
•
51
3
SFTMix: Повышение настройки инструкции языковой модели с помощью рецепта Mixup.
SFTMix: Elevating Language Model Instruction Tuning with Mixup Recipe
Yuxin Xiao, Shujian Zhang, Wenxuan Zhou, Marzyeh Ghassemi, Sanqiang Zhao
•
Oct 7, 2024
•
8
2
Масштабирование ваших ядер: проектирование крупных ядер в сверточных нейронных сетях к универсальным представлениям
Scaling Up Your Kernels: Large Kernel Design in ConvNets towards Universal Representations
Yiyuan Zhang, Xiaohan Ding, Xiangyu Yue
•
Oct 10, 2024
•
8
2
Ускоренная оптимизация предпочтений для выравнивания больших языковых моделей.
Accelerated Preference Optimization for Large Language Model Alignment
Jiafan He, Huizhuo Yuan, Quanquan Gu
•
Oct 8, 2024
•
5
2
GLOV: Направляемые большие языковые модели как неявные оптимизаторы для видения.
GLOV: Guided Large Language Models as Implicit Optimizers for Vision Language Models
M. Jehanzeb Mirza, Mengjie Zhao, Zhuoyuan Mao, Sivan Doveh, Wei Lin, Paul Gavrikov, Michael Dorkenwald, Shiqi Yang, Saurav Jha, Hiromi Wakaki, Yuki Mitsufuji, Horst Possegger, Rogerio Feris, Leonid Karlinsky, James Glass
•
Oct 8, 2024
•
16
2
MotionGS: Исследование явного управления движением для деформируемого трехмерного гауссовского сплетения.
MotionGS: Exploring Explicit Motion Guidance for Deformable 3D Gaussian Splatting
Ruijie Zhu, Yanzhe Liang, Hanzhi Chang, Jiacheng Deng, Jiahao Lu, Wenfei Yang, Tianzhu Zhang, Yongdong Zhang
•
Oct 10, 2024
•
3
2