ChatPaper.aiChatPaper

HY-WU (Часть I): Расширяемая функциональная нейронная архитектура памяти и её реализация в текстовом редактировании изображений

HY-WU (Part I): An Extensible Functional Neural Memory Framework and An Instantiation in Text-Guided Image Editing

March 7, 2026
Авторы: Tencent HY Team
cs.AI

Аннотация

Фундаментальные модели переходят от автономных предикторов к развернутым системам, предназначенным для работы в течение длительных временных горизонтов. В реальных развертываниях цели не являются фиксированными: предметные области дрейфуют, пользовательские предпочтения эволюционируют, а новые задачи появляются уже после выпуска модели. Это повышает статус непрерывного обучения и мгновенной персонализации от опциональных функций до ключевых архитектурных требований. Однако большинство конвейеров адаптации по-прежнему следуют парадигме статических весов: после обучения (или после любого шага адаптации) выполнение инференса использует единый вектор параметров, независимо от намерений пользователя, домена или ограничений, специфичных для конкретного экземпляра. Это трактует обученную или адаптированную модель как единую точку в пространстве параметров. В гетерогенных и непрерывно эволюционирующих режимах различные цели могут порождать разделенные области допустимых значений параметров, вынуждая любое единое общее обновление идти на компромисс, вызывать интерференцию или чрезмерную специализацию. В результате непрерывное обучение и персонализация часто реализуются как повторная перезапись общих весов, что создает риск деградации ранее изученных поведений. Мы предлагаем HY-WU (Weight Unleashing), фреймворк адаптации с приоритетом памяти, который смещает давление адаптации от перезаписи единой общей точки параметров. HY-WU реализует функциональную (операторную) память в виде нейронного модуля: генератора, который синтезирует обновления весов на лету на основе условий экземпляра, создавая операторы, специфичные для экземпляра, без оптимизации во время тестирования.
English
Foundation models are transitioning from offline predictors to deployed systems expected to operate over long time horizons. In real deployments, objectives are not fixed: domains drift, user preferences evolve, and new tasks appear after the model has shipped. This elevates continual learning and instant personalization from optional features to core architectural requirements. Yet most adaptation pipelines still follow a static weight paradigm: after training (or after any adaptation step), inference executes a single parameter vector regardless of user intent, domain, or instance-specific constraints. This treats the trained or adapted model as a single point in parameter space. In heterogeneous and continually evolving regimes, distinct objectives can induce separated feasible regions over parameters, forcing any single shared update into compromise, interference, or overspecialization. As a result, continual learning and personalization are often implemented as repeated overwriting of shared weights, risking degradation of previously learned behaviors. We propose HY-WU (Weight Unleashing), a memory-first adaptation framework that shifts adaptation pressure away from overwriting a single shared parameter point. HY-WU implements functional (operator-level) memory as a neural module: a generator that synthesizes weight updates on-the-fly from the instance condition, yielding instance-specific operators without test-time optimization.
PDF32March 16, 2026