HY-WU (Parte I): Uma Estrutura de Memória Neural Funcional Extensível e uma Instanciação em Edição de Imagem Guiada por Texto
HY-WU (Part I): An Extensible Functional Neural Memory Framework and An Instantiation in Text-Guided Image Editing
March 7, 2026
Autores: Tencent HY Team
cs.AI
Resumo
Os modelos de base estão em transição de preditores offline para sistemas implantados que devem operar em horizontes temporais longos. Em implantações reais, os objetivos não são fixos: os domínios mudam, as preferências dos usuários evoluem e novas tarefas surgem após o modelo ser disponibilizado. Isso eleva o aprendizado contínuo e a personalização instantânea de características opcionais para requisitos arquiteturais centrais. No entanto, a maioria dos pipelines de adaptação ainda segue um paradigma de pesos estáticos: após o treinamento (ou após qualquer etapa de adaptação), a inferência executa um único vetor de parâmetros, independentemente da intenção do usuário, do domínio ou das restrições específicas da instância. Isso trata o modelo treinado ou adaptado como um único ponto no espaço de parâmetros. Em regimes heterogêneos e em contínua evolução, objetivos distintos podem induzir regiões viáveis separadas sobre os parâmetros, forçando qualquer atualização compartilhada única a um compromisso, interferência ou superespecialização. Como resultado, o aprendizado contínuo e a personalização são frequentemente implementados como uma sobrescrição repetida de pesos compartilhados, arriscando a degradação de comportamentos aprendidos anteriormente. Propomos o HY-WU (Weight Unleashing), um framework de adaptação com prioridade em memória que desloca a pressão de adaptação para longe da sobrescrição de um único ponto de parâmetro compartilhado. O HY-WU implementa memória funcional (em nível de operador) como um módulo neural: um gerador que sintetiza atualizações de pesos dinamicamente a partir da condição da instância, produzindo operadores específicos da instância sem otimização em tempo de teste.
English
Foundation models are transitioning from offline predictors to deployed systems expected to operate over long time horizons. In real deployments, objectives are not fixed: domains drift, user preferences evolve, and new tasks appear after the model has shipped. This elevates continual learning and instant personalization from optional features to core architectural requirements. Yet most adaptation pipelines still follow a static weight paradigm: after training (or after any adaptation step), inference executes a single parameter vector regardless of user intent, domain, or instance-specific constraints. This treats the trained or adapted model as a single point in parameter space. In heterogeneous and continually evolving regimes, distinct objectives can induce separated feasible regions over parameters, forcing any single shared update into compromise, interference, or overspecialization. As a result, continual learning and personalization are often implemented as repeated overwriting of shared weights, risking degradation of previously learned behaviors. We propose HY-WU (Weight Unleashing), a memory-first adaptation framework that shifts adaptation pressure away from overwriting a single shared parameter point. HY-WU implements functional (operator-level) memory as a neural module: a generator that synthesizes weight updates on-the-fly from the instance condition, yielding instance-specific operators without test-time optimization.