HY-WU(第一部):拡張可能な機能的ニューラルメモリフレームワークとテキスト誘導型画像編集への実装
HY-WU (Part I): An Extensible Functional Neural Memory Framework and An Instantiation in Text-Guided Image Editing
March 7, 2026
著者: Tencent HY Team
cs.AI
要旨
基盤モデルは、オフラインの予測器から、長期的な運用が期待される配備システムへと移行しつつある。実際の運用環境では、目的は固定されていない。ドメインは変動し、ユーザーの嗜好は変化し、モデル配布後に新たなタスクが出現する。これにより、継続学習と即時パーソナライゼーションは、オプション機能から中核的なアーキテクチャ要件へと格上げされている。しかし、現在の適応パイプラインの多くは依然として静的な重みのパラダイムに従っている:学習後(あるいは適応ステップ後)の推論では、ユーザーの意図やドメイン、インスタンス固有の制約に関わらず、単一のパラメータベクトルが実行される。これは、学習済みまたは適応済みのモデルをパラメータ空間内の単一点として扱うことになる。不均質で継続的に進化する環境では、異なる目的がパラメータ空間内で分離した実行可能領域を誘導するため、単一の共有更新は妥協、干渉、または過度の特化を強いられる。結果として、継続学習とパーソナライゼーションは、共有重みの繰り返し上書きとして実装されることが多く、以前に学習した振る舞いの劣化リスクを伴う。本研究では、HY-WU(Weight Unleashing)を提案する。これは、単一の共有パラメータ点の上書きから適応の負荷を移す、メモリファーストの適応フレームワークである。HY-WUは、機能的な(演算子レベルの)メモリをニューラルモジュールとして実装する。これは、インスタンスの条件から重み更新をオンザフライで合成するジェネレータであり、テスト時の最適化なしでインスタンス固有の演算子を生成する。
English
Foundation models are transitioning from offline predictors to deployed systems expected to operate over long time horizons. In real deployments, objectives are not fixed: domains drift, user preferences evolve, and new tasks appear after the model has shipped. This elevates continual learning and instant personalization from optional features to core architectural requirements. Yet most adaptation pipelines still follow a static weight paradigm: after training (or after any adaptation step), inference executes a single parameter vector regardless of user intent, domain, or instance-specific constraints. This treats the trained or adapted model as a single point in parameter space. In heterogeneous and continually evolving regimes, distinct objectives can induce separated feasible regions over parameters, forcing any single shared update into compromise, interference, or overspecialization. As a result, continual learning and personalization are often implemented as repeated overwriting of shared weights, risking degradation of previously learned behaviors. We propose HY-WU (Weight Unleashing), a memory-first adaptation framework that shifts adaptation pressure away from overwriting a single shared parameter point. HY-WU implements functional (operator-level) memory as a neural module: a generator that synthesizes weight updates on-the-fly from the instance condition, yielding instance-specific operators without test-time optimization.