ChatPaper.aiChatPaper

HY-WU (Deel I): Een Uitbreidbaar Functioneel Neuraal Geheugenkader en een Toepassing in Tekstgestuurd Beeldbewerking

HY-WU (Part I): An Extensible Functional Neural Memory Framework and An Instantiation in Text-Guided Image Editing

March 7, 2026
Auteurs: Tencent HY Team
cs.AI

Samenvatting

Foundationmodellen maken een transitie van offline voorspellers naar geïmplementeerde systemen die naar verwachting over lange tijdsperioden moeten functioneren. In echte implementaties zijn doelstellingen niet vastomlijnd: domeinen veranderen, gebruikersvoorkeuren evolueren en nieuwe taken duiken op nadat het model is vrijgegeven. Dit verheft continu leren en onmiddellijke personalisatie van optionele functies tot kernarchitectuurvereisten. Toch volgen de meeste aanpassingspijplijnen nog steeds een statisch gewichtsparadigma: na de training (of na elke aanpassingsstap) voert inferentie een enkele parametervector uit, ongeacht gebruikersintentie, domein of instantiespecifieke beperkingen. Dit behandelt het getrainde of aangepaste model als een enkel punt in de parameterruimte. In heterogene en continu evoluerende regimes kunnen verschillende doelstellingen gescheiden haalbare regio's over parameters induceren, waardoor elke gedeelde update gedwongen wordt tot compromis, interferentie of overspecialisatie. Als gevolg daarvan worden continu leren en personalisatie vaak geïmplementeerd als herhaaldelijk overschrijven van gedeelde gewichten, met het risico op degradatie van eerder aangeleerd gedrag. Wij stellen HY-WU (Weight Unleashing) voor, een geheugen-eerst aanpassingsraamwerk dat de aanpassingsdruk weg verschuift van het overschrijven van een enkel gedeeld parameterpunt. HY-WU implementeert functioneel (operator-niveau) geheugen als een neurale module: een generator die gewichts-updates on-the-fly synthetiseert op basis van de instantievoorwaarde, waardoor instantiespecifieke operatoren ontstaan zonder optimalisatie tijdens de testfase.
English
Foundation models are transitioning from offline predictors to deployed systems expected to operate over long time horizons. In real deployments, objectives are not fixed: domains drift, user preferences evolve, and new tasks appear after the model has shipped. This elevates continual learning and instant personalization from optional features to core architectural requirements. Yet most adaptation pipelines still follow a static weight paradigm: after training (or after any adaptation step), inference executes a single parameter vector regardless of user intent, domain, or instance-specific constraints. This treats the trained or adapted model as a single point in parameter space. In heterogeneous and continually evolving regimes, distinct objectives can induce separated feasible regions over parameters, forcing any single shared update into compromise, interference, or overspecialization. As a result, continual learning and personalization are often implemented as repeated overwriting of shared weights, risking degradation of previously learned behaviors. We propose HY-WU (Weight Unleashing), a memory-first adaptation framework that shifts adaptation pressure away from overwriting a single shared parameter point. HY-WU implements functional (operator-level) memory as a neural module: a generator that synthesizes weight updates on-the-fly from the instance condition, yielding instance-specific operators without test-time optimization.
PDF32March 26, 2026