ChatPaper.aiChatPaper.ai
Главная

arXiv

HuggingFace

ЦеныАккаунтРабочее пространство

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: hi@pomodiary.com

X (Twitter)Discord

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

Ежедневные Исследовательские Статьи по ИИ

Ежедневно отобранные исследовательские статьи по ИИ с переводами

OmniDocBench: Сравнительный анализ разнообразного разбора PDF-документов с подробными аннотациями
OmniDocBench: Benchmarking Diverse PDF Document Parsing with Comprehensive Annotations

Dec 10, 2024
Linke Ouyang, Yuan Qu, Hongbin Zhou, Jiawei Zhu, Rui Zhang, Qunshu Lin, Bin Wang, Zhiyuan Zhao, Man Jiang, Xiaomeng Zhao, Jin Shi, Fan Wu, Pei Chu, Minghao Liu, Zhenxiang Li, Chao Xu, Bo Zhang, Botian Shi, Zhongying Tu, Conghui He
111

Извлечение содержимого документа имеет важное значение в компьютерном зрении, особенно для удовлетворения потребностей крупных языковых моделей (LLM) и технологий генерации с использованием поиска (RAG) в высококачественных данных. Однако текущие методы разбора документов страдают от значительных ограничений в разнообразии и полноценной оценке. Для решения этих проблем мы представляем OmniDocBench, новый многоканальный бенчмарк, разработанный для продвижения автоматизированного извлечения содержимого документов. OmniDocBench включает тщательно подобранный и аннотированный высококачественный набор данных для оценки, включающий девять различных типов документов, таких как научные статьи, учебники, слайды и другие. Наш бенчмарк предоставляет гибкую и всестороннюю систему оценки с 19 метками категорий макета и 14 атрибутными метками, обеспечивая многоуровневые оценки по всему набору данных, отдельным модулям или конкретным типам данных. С использованием OmniDocBench мы проводим исчерпывающий сравнительный анализ существующих модульных конвейеров и мультимодальных методов end-to-end, выявляя их ограничения в работе с разнообразием документов и обеспечивая справедливую оценку. OmniDocBench устанавливает надежный, разнообразный и справедливый стандарт оценки для области извлечения содержимого документов, предлагая важные идеи для будущих усовершенствований и способствуя развитию технологий разбора документов. Коды и набор данных доступны по ссылке https://github.com/opendatalab/OmniDocBench.

Обучение больших языковых моделей для рассуждений в непрерывном латентном пространстве
Training Large Language Models to Reason in a Continuous Latent Space

Dec 9, 2024
Shibo Hao, Sainbayar Sukhbaatar, DiJia Su, Xian Li, Zhiting Hu, Jason Weston, Yuandong Tian
877

Большие языковые модели (LLM) ограничены возможностью рассуждать в "языковом пространстве", где они обычно выражают процесс рассуждения цепочкой мыслей (CoT) для решения сложной проблемы рассуждения. Однако мы утверждаем, что языковое пространство не всегда оптимально для рассуждения. Например, большинство словесных токенов предназначены в основном для текстовой связности и не являются существенными для рассуждения, в то время как некоторые критические токены требуют сложного планирования и представляют собой огромные вызовы для LLM. Для исследования потенциала рассуждения LLM в неограниченном латентном пространстве вместо использования естественного языка мы представляем новую парадигму Coconut (Цепочка Непрерывных Мыслей). Мы используем последнее скрытое состояние LLM в качестве представления состояния рассуждения (называемого "непрерывными мыслями"). Вместо декодирования этого в словесный токен мы подаем его обратно в LLM как встраивание последующего ввода напрямую в непрерывном пространстве. Эксперименты показывают, что Coconut может эффективно дополнять LLM на нескольких задачах рассуждения. Эта новая латентная парадигма рассуждения приводит к возникновению продвинутых шаблонов рассуждения: непрерывные мысли могут кодировать несколько альтернативных следующих шагов рассуждения, позволяя модели выполнять поиск в ширину (BFS) для решения проблемы, вместо преждевременного принятия решения о единственном детерминированном пути, как CoT. Coconut превосходит CoT в некоторых логических задачах рассуждения, требующих значительного возврата назад во время планирования, с меньшим количеством мысленных токенов во время вывода. Эти результаты демонстрируют перспективы латентного рассуждения и предлагают ценные идеи для будущих исследований.

ProcessBench: Выявление ошибок в процессе математического рассуждения
ProcessBench: Identifying Process Errors in Mathematical Reasoning

Dec 9, 2024
Chujie Zheng, Zhenru Zhang, Beichen Zhang, Runji Lin, Keming Lu, Bowen Yu, Dayiheng Liu, Jingren Zhou, Junyang Lin
846

Поскольку языковые модели регулярно допускают ошибки при решении математических задач, автоматизированная идентификация ошибок в процессе рассуждений становится все более значимой для их масштабного контроля. В данной статье мы представляем ProcessBench для измерения способности выявлять ошибочные шаги в математических рассуждениях. Он состоит из 3 400 тестовых случаев, в основном сосредоточенных на математических задачах уровня соревнований и олимпиад. Каждый тестовый случай содержит пошаговое решение с указанием места ошибки экспертами. Модели должны определить самый ранний шаг, содержащий ошибку, или заключить, что все шаги верны. Мы проводим обширную оценку на ProcessBench, включая два типа моделей: модели наград за процесс (PRM) и модели-критики, где для последних мы подталкиваем общие языковые модели к критике каждого шага решения. Мы делаем два основных наблюдения: (1) Существующие PRM обычно не могут обобщиться на более сложные математические задачи за пределами GSM8K и MATH. Они уступают как моделям-критикам (т.е. подталкиваемым общим языковым моделям), так и нашей собственной обученной PRM, которая просто настроена на набор данных PRM800K. (2) Лучшая модель с открытым исходным кодом, QwQ-32B-Preview, продемонстрировала способность к критике, конкурентную с собственной моделью GPT-4o, хотя она все еще уступает специализированной на рассуждениях o1-mini. Мы надеемся, что ProcessBench сможет способствовать будущим исследованиям в оценке процесса рассуждений, открывая путь к масштабному контролю языковых моделей.

Раскрытие сложности памяти в агентах обучения с подкреплением: подход к классификации и оценке
Unraveling the Complexity of Memory in RL Agents: an Approach for Classification and Evaluation

Dec 9, 2024
Egor Cherepanov, Nikita Kachaev, Artem Zholus, Alexey K. Kovalev, Aleksandr I. Panov
732

Внедрение памяти в агентов является неотъемлемым для многих задач в области Обучения с Подкреплением (RL). В частности, память имеет первостепенное значение для задач, требующих использования прошлой информации, адаптации к новым средам и повышения эффективности выборки. Однако термин "память" охватывает широкий спектр концепций, что в сочетании с отсутствием унифицированной методологии для проверки памяти агента приводит к ошибочным суждениям о способностях памяти агентов и мешает объективному сравнению с другими агентами с улучшенной памятью. Настоящая статья нацелена на упрощение концепции памяти в RL путем предоставления практических точных определений типов памяти агента, таких как долгосрочная по сравнению с краткосрочной памятью и декларативная по сравнению с процедурной памятью, вдохновленных когнитивной наукой. Используя эти определения, мы классифицируем различные классы памяти агента, предлагаем надежную экспериментальную методологию для оценки способностей памяти агентов RL и стандартизируем оценки. Более того, мы эмпирически демонстрируем важность соблюдения предложенной методологии при оценке различных типов памяти агента путем проведения экспериментов с различными агентами RL и последствий ее нарушения.

Maya: Модель с инструкциями, донастроенная для мультиязычного и мультимодального обучения.
Maya: An Instruction Finetuned Multilingual Multimodal Model

Dec 10, 2024
Nahid Alam, Karthik Reddy Kanjula, Surya Guthikonda, Timothy Chung, Bala Krishna S Vegesna, Abhipsha Das, Anthony Susevski, Ryan Sze-Yin Chan, S M Iftekhar Uddin, Shayekh Bin Islam, Roshan Santhosh, Snegha A, Drishti Sharma, Chen Liu, Isha Chaturvedi, Genta Indra Winata, Ashvanth. S, Snehanshu Mukherjee, Alham Fikri Aji
292

Быстрое развитие крупных моделей видео-языкового восприятия (VLM) привело к впечатляющим результатам на академических бенчмарках, в основном на широко используемых языках. Однако существуют значительные пробелы в способности текущих VLM обрабатывать языки с ограниченными ресурсами и разнообразные культурные контексты, в значительной степени из-за отсутствия качественных, разнообразных и проверенных на безопасность данных. В результате эти модели часто испытывают затруднения в понимании языков с ограниченными ресурсами и культурных нюансов таким образом, чтобы избежать токсичности. Для преодоления этих ограничений мы представляем Maya, модель мультимодального мультиязыкового восприятия с открытым исходным кодом. Наши вклады тройные: 1) мультиязыковый набор данных для предварительного обучения изображение-текст на восьми языках, основанный на наборе данных предварительного обучения LLaVA; 2) тщательный анализ токсичности в наборе данных LLaVA, за которым последовало создание новой версии без токсичности на восьми языках; и 3) мультиязыковая модель изображение-текст, поддерживающая эти языки, улучшая культурное и языковое понимание в задачах видео-языкового восприятия. Код доступен по ссылке https://github.com/nahidalam/maya.

Вокруг света за 80 временных шагов: Генеративный подход к глобальной визуальной геолокации
Around the World in 80 Timesteps: A Generative Approach to Global Visual Geolocation

Dec 9, 2024
Nicolas Dufour, David Picard, Vicky Kalogeiton, Loic Landrieu
242

Глобальная визуальная геолокация предсказывает местоположение, где было сделано изображение на Земле. Поскольку изображения различаются по степени точности локализации, эта задача неизбежно связана с значительной степенью неопределенности. Однако существующие подходы детерминированы и не учитывают этот аспект. В данной статье мы стремимся сократить разрыв между традиционной геолокацией и современными генеративными методами. Мы предлагаем первый генеративный подход к геолокации на основе диффузии и сопоставления потока Римана, где процесс денойзинга работает непосредственно на поверхности Земли. Наша модель достигает передовых результатов на трех визуальных бенчмарках геолокации: OpenStreetView-5M, YFCC-100M и iNat21. Кроме того, мы представляем задачу вероятностной визуальной геолокации, где модель предсказывает распределение вероятностей по всем возможным местоположениям вместо одной точки. Мы вводим новые метрики и базовые значения для этой задачи, демонстрируя преимущества нашего подхода на основе диффузии. Коды и модели будут доступны.

Исследование многоуровневых аннотаций концепций для мультимодальных крупномасштабных языковых моделей.
Exploring Multi-Grained Concept Annotations for Multimodal Large Language Models

Dec 8, 2024
Xiao Xu, Tianhao Niu, Yuxi Xie, Libo Qin, Wanxiang Che, Min-Yen Kan
162

Многомодельные модели на больших языковых корпусах (MLLM) превосходят в задачах вид-язык благодаря предварительному обучению исключительно на грубых аннотациях концепций (например, подписям к изображениям). Мы предполагаем, что интеграция аннотаций тонкой детализации концепций (например, меток объектов и областей объектов) дополнительно улучшит производительность, поскольку обе гранулярности данных дополняют друг друга в плане ширины и глубины представления концепций. Мы представляем новый набор данных с аннотациями многомодальных мультигранулярных концепций (MMGiC) для MLLM. При создании MMGiC мы исследуем влияние различных методов обработки данных на многомодальное понимание и генерацию. Наши анализы показывают, что мультигранулярные аннотации концепций интегрируются и дополняют друг друга в рамках нашего структурированного шаблона и общей структуры MLLM. Мы ясно исследуем и демонстрируем потенциал MMGiC в помощи MLLM в лучшем определении и изучении концепций, выравнивая вид и язык на разных уровнях детализации. Мы также подтверждаем нашу гипотезу, исследуя справедливое сравнение и эффективное взаимодействие между MMGiC и данными изображения-подпись на 12 многомодальных бенчмарках понимания и генерации, например, их сочетание достигает улучшений на 3.95% и 2.34% по сравнению только с данными изображения-подпись на POPE и SEED-Bench. Код, данные и модели будут доступны на https://github.com/LooperXX/MMGiC.

Divot: Диффузия обеспечивает функционирование видео-токенизатора для понимания и генерации.
Divot: Diffusion Powers Video Tokenizer for Comprehension and Generation

Dec 5, 2024
Yuying Ge, Yizhuo Li, Yixiao Ge, Ying Shan
162

В последние годы наблюдается значительный рост интереса к объединению понимания и генерации изображений в рамках больших языковых моделей (LLM). Этот растущий интерес побудил нас исследовать расширение этого объединения на видео. Основное препятствие заключается в разработке универсального видео-токенизатора, который бы учитывал как пространственные характеристики, так и временные динамики видео для получения представлений для LLM, а эти представления могли бы быть декодированы в реалистичные видеоролики для возможности генерации видео. В данной работе мы представляем Divot, Токенизатор Видео на Основе Диффузии, который использует процесс диффузии для обучения представлений видео методом самообучения. Мы полагаем, что если модель диффузии видео может эффективно устранять шум видеороликов, принимая признаки видео-токенизатора в качестве условия, то токенизатор успешно захватил надежную пространственную и временную информацию. Кроме того, модель диффузии видео по своей сути действует как де-токенизатор, декодируя видеоролики из их представлений. На основе токенизатора Divot мы представляем Divot-Vicuna через авторегрессию видео-в-текст и генерацию текста-в-видео, моделируя распределения непрерывных признаков Divot смесью гауссовских моделей. Экспериментальные результаты показывают, что наш диффузионный видео-токенизатор, интегрированный с предварительно обученной LLM, достигает конкурентоспособной производительности на различных бенчмарках по пониманию и генерации видео. Инструкция, настроенная на Divot-Vicuna, также превосходит в рассказах о видео, генерируя переплетенные повествования и соответствующие видеоролики.

Вы видите это, вы получаете это: обучение созданию 3D на видео без учета позы в масштабе.
You See it, You Got it: Learning 3D Creation on Pose-Free Videos at Scale

Dec 9, 2024
Baorui Ma, Huachen Gao, Haoge Deng, Zhengxiong Luo, Tiejun Huang, Lulu Tang, Xinlong Wang
133

Современные модели генерации 3D-изображений обычно полагаются на ограниченные 3D-`золотые метки' или 2D-приоритеты диффузии для создания 3D-контента. Однако их производительность ограничена ограниченными 3D-приоритетами из-за отсутствия масштабируемых обучающих парадигм. В данной работе мы представляем See3D, визуально-условную многозрительную модель диффузии, обученную на крупномасштабных интернет-видео для создания 3D-изображений в открытом мире. Модель стремится получить знания о 3D, исключительно видя визуальный контент из обширных и быстрорастущих видеоданных - Вы видите это, Вы получаете это. Для достижения этой цели мы сначала увеличиваем обучающие данные с помощью предложенного конвейера курирования данных, который автоматически фильтрует многозрительные несоответствия и недостаточные наблюдения из исходных видео. Это приводит к высококачественному, богато разнообразному, крупномасштабному набору данных многозрительных изображений, названному WebVi3D, содержащему 320 млн кадров из 16 млн видеороликов. Тем не менее, обучение общих 3D-приоритетов из видео без явной 3D-геометрии или аннотаций камеры является нетривиальной задачей, и аннотация положений для видеороликов веб-масштаба является чрезмерно дорогостоящей. Чтобы устранить необходимость в условиях положения, мы представляем инновационный визуальный признак - чисто 2D-индуктивный визуальный сигнал, генерируемый путем добавления зависящего от времени шума к маскированным видеоданным. Наконец, мы представляем новую визуально-условную 3D-модель генерации, интегрируя See3D в основанную на искажениях конвейерную систему для создания 3D-изображений высокой точности. Наши численные и визуальные сравнения на одиночных и разреженных бенчмарках реконструкции показывают, что See3D, обученная на экономичных и масштабируемых видеоданных, достигает значительных возможностей генерации без обучения и создания в открытом мире, заметно превосходя модели, обученные на дорогостоящих и ограниченных 3D-наборах данных. Пожалуйста, обратитесь к нашей странице проекта по адресу: https://vision.baai.ac.cn/see3d

Сети с воротцами Дельта: Улучшение Mamba2 с помощью правила Дельта.
Gated Delta Networks: Improving Mamba2 with Delta Rule

Dec 9, 2024
Songlin Yang, Jan Kautz, Ali Hatamizadeh
123

Линейные трансформеры привлекли внимание как эффективная альтернатива стандартным трансформерам, однако их производительность в задачах поиска и обработки длинных контекстов ограничена. Для преодоления этих ограничений недавние исследования исследовали два различных механизма: ворота для адаптивного управления памятью и правило обновления дельта для точных модификаций памяти. Мы замечаем, что эти механизмы дополняют друг друга: ворота обеспечивают быстрое стирание памяти, в то время как правило дельта облегчает целенаправленные обновления. Основываясь на этом понимании, мы представляем воротно-дельтовое правило и разрабатываем параллельный алгоритм обучения, оптимизированный для современного оборудования. Наша предложенная архитектура, Gated DeltaNet, последовательно превосходит существующие модели, такие как Mamba2 и DeltaNet, на нескольких бенчмарках, включая языковое моделирование, рассуждения на здравый смысл, поиск в контексте, экстраполяцию длины и понимание длинных контекстов. Мы дополнительно улучшаем производительность, разрабатывая гибридные архитектуры, которые объединяют слои Gated DeltaNet с вниманием со скользящим окном или слоями Mamba2, достигая как улучшенной эффективности обучения, так и превосходной производительности в задачах.

MotionShop: Передача движения без обучающего набора в видеодиффузионных моделях с смесью руководства оценками.
MotionShop: Zero-Shot Motion Transfer in Video Diffusion Models with Mixture of Score Guidance

Dec 6, 2024
Hidir Yesiltepe, Tuna Han Salih Meral, Connor Dunlop, Pinar Yanardag
92

В данной работе мы предлагаем первый подход к передаче движения в диффузионном трансформере с использованием Смеси Руководства Оценками (MSG), теоретически обоснованной концепции для передачи движения в моделях диффузии. Наш важный теоретический вклад заключается в переформулировании условной оценки для декомпозиции оценки движения и оценки содержимого в моделях диффузии. Формулируя передачу движения как смесь потенциальных энергий, MSG естественным образом сохраняет композицию сцены и обеспечивает креативные преобразования сцены, сохраняя целостность переданных образцов движения. Эта новаторская выборка работает непосредственно с предварительно обученными видеомоделями диффузии без дополнительного обучения или настройки. Через обширные эксперименты MSG продемонстрировал успешное решение различных сценариев, включая передачу движения одного объекта, нескольких объектов и межобъектную передачу движения, а также сложную передачу камерного движения. Кроме того, мы представляем MotionBench, первый набор данных по передаче движения, состоящий из 200 исходных видеороликов и 1000 переданных движений, охватывающий передачу одного/нескольких объектов и сложные камерные движения.

Глобальные и плотные вложения Земли: Майор ТОМ, плавающий в латентном пространстве
Global and Dense Embeddings of Earth: Major TOM Floating in the Latent Space

Dec 7, 2024
Mikolaj Czerkawski, Marcin Kluczek, Jędrzej S. Bojanowski
82

С увеличивающимися объемами данных обсервации Земли, представленными в архивах крупных программ, таких как Copernicus, возрастает потребность в эффективных векторных представлениях исходных данных. Подход извлечения признаков из предварительно обученных глубоких нейронных сетей является мощным методом, способным обеспечить семантические абстракции входных данных. Однако способ, которым это делается для архивов изображений, содержащих геопространственные данные, пока не был определен. В данной работе предлагается расширение существующего сообщественного проекта Major TOM, сосредоточенного на предоставлении и стандартизации открытых и бесплатных наборов данных, готовых к использованию в области обсервации Земли с использованием искусственного интеллекта. Кроме того, вместе с публикацией данного документа были открыто и бесплатно опубликованы четыре глобальных и плотных набора данных встраивания, что привело к созданию наиболее полного глобального открытого набора данных геопространственных визуальных встраиваний по покрытию поверхности Земли.

CARP: Обучение визуомоторной политики через грубое к тонкому авторегрессионное предсказание
CARP: Visuomotor Policy Learning via Coarse-to-Fine Autoregressive Prediction

Dec 9, 2024
Zhefei Gong, Pengxiang Ding, Shangke Lyu, Siteng Huang, Mingyang Sun, Wei Zhao, Zhaoxin Fan, Donglin Wang
72

В обучении роботизированной визуомоторной политики модели на основе диффузии достигли значительного успеха в улучшении точности генерации траектории действий по сравнению с традиционными авторегрессионными моделями. Однако они страдают от неэффективности из-за нескольких этапов денойзинга и ограниченной гибкости из-за сложных ограничений. В данной статье мы представляем Coarse-to-Fine AutoRegressive Policy (CARP), новую парадигму обучения визуомоторной политики, которая переопределяет процесс авторегрессионной генерации действий как грубо-конечный подход следующего масштаба. CARP разделяет генерацию действий на два этапа: сначала автоэнкодер действий изучает многомасштабные представления всей последовательности действий; затем трансформер в стиле GPT уточняет прогнозирование последовательности через грубо-конечный авторегрессионный процесс. Этот простой и интуитивный подход обеспечивает высокую точность и плавность действий, соответствующих или даже превосходящих производительность политик на основе диффузии, сохраняя при этом эффективность на уровне авторегрессионных политик. Мы проводим обширные оценки в различных средах, включая сценарии однозадачных и многозадачных на базе состояний и изображений в симуляционных бенчмарках, а также в реальных задачах. CARP достигает конкурентоспособных показателей успешности, с улучшением до 10%, и обеспечивает 10-кратное ускорение вывода по сравнению с передовыми политиками, устанавливая высокопроизводительную, эффективную и гибкую парадигму для генерации действий в робототехнических задачах.

Сопоставление гауссов: Атлас диаграмм для высококачественной геометрии и фотореализма по данным из небольшого числа видов
MAtCha Gaussians: Atlas of Charts for High-Quality Geometry and Photorealism From Sparse Views

Dec 9, 2024
Antoine Guédon, Tomoki Ichikawa, Kohei Yamashita, Ko Nishino
72

Мы представляем новую модель внешнего вида, которая одновременно обеспечивает явное восстановление трехмерной поверхности высокого качества и фотореалистичный синтез нового вида из ограниченного числа образцов видов. Наш ключевой идеей является моделирование базовой геометрии сцены в виде атласа диаграмм, который мы визуализируем с помощью двумерных гауссовских сурфелей (MAtCha Гауссианы). MAtCha извлекает высокочастотные детали поверхности сцены из готового монокулярного оценщика глубины и улучшает их с помощью визуализации гауссовских сурфелей. Гауссовские сурфели присоединяются к диаграммам на лету, обеспечивая фотореализм нейронной объемной визуализации и четкую геометрию модели сетки, то есть две кажущиеся противоречащие цели в одной модели. В основе MAtCha лежит новая модель нейронной деформации и потеря структуры, которые сохраняют тонкие детали поверхности, извлеченные из изученных монокулярных глубин, решая их фундаментальные неоднозначности масштаба. Результаты обширной экспериментальной проверки демонстрируют высокое качество восстановления поверхности и фотореализма MAtCha на уровне лучших конкурентов, но с драматическим сокращением числа входных видов и вычислительного времени. Мы считаем, что MAtCha станет фундаментальным инструментом для любого визуального приложения в области зрения, графики и робототехники, которые требуют явной геометрии в дополнение к фотореализму. Наша страница проекта находится по следующему адресу: https://anttwo.github.io/matcha/

Надежный многобитный текстовый водяной знак с использованием парапрейзеров на основе LLM.
Robust Multi-bit Text Watermark with LLM-based Paraphrasers

Dec 4, 2024
Xiaojun Xu, Jinghan Jia, Yuanshun Yao, Yang Liu, Hang Li
62

Мы предлагаем незаметный многобитный текстовый водяной знак, встроенный путем перефразирования с использованием языковых моделей с ограниченной длиной. Мы донастраиваем пару перефразирующих языковых моделей, которые специально разработаны для различного поведения, так чтобы разница в перефразировании между ними, отраженная в семантике текста, могла быть идентифицирована обученным декодером. Для встраивания нашего многобитного водяного знака мы используем две перефразирующие модели поочередно для кодирования заранее определенного двоичного кода на уровне предложения. Затем мы используем текстовый классификатор в качестве декодера для расшифровки каждого бита водяного знака. Через обширные эксперименты мы показываем, что наши водяные знаки могут достигать более 99,99\% AUC обнаружения при использовании небольших (1,1 млрд) перефразирующих моделей текста, сохраняя семантическую информацию исходного предложения. Более того, наша система устойчива к замене слов и изменениям в перефразировании предложений, а также хорошо обобщается на данные, не входящие в распределение. Мы также демонстрируем незаметность нашего водяного знака с помощью оценки на основе языковых моделей с ограниченной длиной. Мы предоставляем исходный код открытым доступом по ссылке: https://github.com/xiaojunxu/multi-bit-text-watermark.

Если вы не можете использовать их, переработайте их: оптимизация слияния в масштабе смягчает компромиссы в производительности.
If You Can't Use Them, Recycle Them: Optimizing Merging at Scale Mitigates Performance Tradeoffs

Dec 5, 2024
Muhammad Khalifa, Yi-Chern Tan, Arash Ahmadian, Tom Hosking, Honglak Lee, Lu Wang, Ahmet Üstün, Tom Sherborne, Matthias Gallé
52

Слияние моделей показало большой потенциал в объединении экспертных моделей, однако польза от слияния неясна при объединении моделей "универсального" типа, обученных на множестве задач. Мы исследуем слияние в контексте крупных (прибл. 100 млрд) моделей, путем повторного использования контрольных точек, демонстрирующих компромиссы между различными задачами. Такие контрольные точки часто создаются в процессе разработки фронтовой модели, и многие из них обычно отбрасываются как неоптимальные. Учитывая набор контрольных точек моделей, полученных из различных запусков обучения (например, различные этапы, цели, гиперпараметры и смеси данных), которые естественным образом демонстрируют компромиссы между различными языковыми возможностями (например, следование инструкциям против генерации кода), мы исследуем, может ли слияние повторно использовать такие неоптимальные модели для создания Парето-оптимальной. Наш алгоритм оптимизации настраивает вес каждой контрольной точки в линейной комбинации, что приводит к Парето-оптимальным моделям, превосходящим как отдельные модели, так и базовые модели на основе слияния. Дальнейший анализ показывает, что хорошие слияния обычно включают практически все контрольные точки с ненулевыми весами, что указывает на то, что даже кажущиеся плохими начальные контрольные точки могут способствовать созданию хороших конечных слияний.

Turbo3D: Генерация 3D из текста с ультра-высокой скоростью
Turbo3D: Ultra-fast Text-to-3D Generation

Dec 5, 2024
Hanzhe Hu, Tianwei Yin, Fujun Luan, Yiwei Hu, Hao Tan, Zexiang Xu, Sai Bi, Shubham Tulsiani, Kai Zhang
42

Мы представляем Turbo3D, ультра-быструю систему текст в 3D, способную генерировать высококачественные гауссовы сглаживающие ресурсы менее чем за одну секунду. Turbo3D использует быстрый 4-шаговый, 4-видовой генератор диффузии и эффективный прямой гауссов реконструктор, оба работающих в скрытом пространстве. 4-шаговый, 4-видовой генератор - это модель студента, дистиллированная через новый подход с двумя учителями, который побуждает студента учиться согласованности вида от многовидового учителя и фотореализму от одновидового учителя. Перемещая входы гауссова реконструктора из пространства пикселей в скрытое пространство, мы устраняем дополнительное время декодирования изображения и уменьшаем длину последовательности трансформатора вдвое для достижения максимальной эффективности. Наш метод демонстрирует превосходные результаты генерации 3D по сравнению с предыдущими базовыми уровнями, работая в долю их времени выполнения.

Dec 9
Dec 10
Dec 11