HY-WU (Teil I): Ein erweiterbares funktionales neuronales Gedächtnisframework und eine Instanziierung in der textgesteuerten Bildbearbeitung
HY-WU (Part I): An Extensible Functional Neural Memory Framework and An Instantiation in Text-Guided Image Editing
March 7, 2026
Autoren: Tencent HY Team
cs.AI
Zusammenfassung
Foundation Models vollziehen einen Wandel von offline arbeitenden Vorhersagesystemen zu eingesetzten Systemen, die über lange Zeiträume hinweg betrieben werden sollen. In realen Einsatzszenarien sind die Zielsetzungen nicht statisch: Domänen verändern sich, Nutzerpräferenzen entwickeln sich weiter und neue Aufgaben tauchen auf, nachdem das Modell bereits ausgeliefert wurde. Dies macht Continual Learning und sofortige Personalisierung von optionalen Funktionen zu zentralen Architekturanforderungen. Dennoch folgen die meisten Anpassungspipelines weiterhin einem Paradigma statischer Gewichte: Nach dem Training (oder nach jedem Anpassungsschritt) verwendet die Inferenz einen einzigen Parametervektor, unabhängig von Nutzerabsicht, Domäne oder instanzspezifischen Randbedingungen. Dies behandelt das trainierte oder angepasste Modell als einen einzelnen Punkt im Parameterraum. In heterogenen und sich kontinuierlich weiterentwickelnden Umgebungen können unterschiedliche Zielsetzungen getrennte zulässige Bereiche im Parameterraum erzeugen, was jeden gemeinsamen Update-Schritt zu einem Kompromiss, zu Interferenz oder zu Überspezialisierung zwingt. In der Folge werden Continual Learning und Personalisierung oft als wiederholtes Überschreiben gemeinsamer Gewichte implementiert, was den Verlust zuvor erlernter Fähigkeiten riskiert. Wir schlagen HY-WU (Weight Unleashing) vor, ein speicherorientiertes Anpassungsframework, das den Anpassungsdruck vom Überschreiben eines einzelnen gemeinsamen Parameterpunkts wegnimmt. HY-WU implementiert funktionalen (Operator-level) Speicher als ein neuronales Modul: einen Generator, der Gewichtsupdates on-the-fly aus der Instanzenbedingung synthetisiert und so instanzspezifische Operatoren ohne Optimierung zur Laufzeit erzeugt.
English
Foundation models are transitioning from offline predictors to deployed systems expected to operate over long time horizons. In real deployments, objectives are not fixed: domains drift, user preferences evolve, and new tasks appear after the model has shipped. This elevates continual learning and instant personalization from optional features to core architectural requirements. Yet most adaptation pipelines still follow a static weight paradigm: after training (or after any adaptation step), inference executes a single parameter vector regardless of user intent, domain, or instance-specific constraints. This treats the trained or adapted model as a single point in parameter space. In heterogeneous and continually evolving regimes, distinct objectives can induce separated feasible regions over parameters, forcing any single shared update into compromise, interference, or overspecialization. As a result, continual learning and personalization are often implemented as repeated overwriting of shared weights, risking degradation of previously learned behaviors. We propose HY-WU (Weight Unleashing), a memory-first adaptation framework that shifts adaptation pressure away from overwriting a single shared parameter point. HY-WU implements functional (operator-level) memory as a neural module: a generator that synthesizes weight updates on-the-fly from the instance condition, yielding instance-specific operators without test-time optimization.