ChatPaper.aiChatPaper

Brainstacks: Capacidades Cognitivas Transdomínio via Pilhas Congeladas MoE-LoRA para Aprendizagem Contínua de LLM

Brainstacks: Cross-Domain Cognitive Capabilities via Frozen MoE-LoRA Stacks for Continual LLM Learning

April 1, 2026
Autores: Mohammad R. Abu Ayyash
cs.AI

Resumo

Apresentamos o Brainstacks, uma arquitetura modular para *fine-tuning* contínuo e multidomínio de grandes modelos de linguagem que empacota a expertise de domínio como pilhas de *adapters* congeladas que se compõem de forma aditiva sobre uma base compartilhada e congelada durante a inferência. Cinco componentes interligados: (1) MoE-LoRA com roteamento do tipo Shazeer (*noisy top-2*) em todas as sete projeções do *transformer* sob quantização QLoRA de 4 bits com escala rsLoRA; (2) um loop interno que realiza *residual boosting* ao congelar pilhas treinadas e adicionar novas; (3) um loop externo que treina pilhas sequenciais específicas por domínio com dependências ordenadas por currículo; (4) projeção no espaço nulo via SVD randomizada, restringindo novas pilhas a subespaços ortogonais a direções anteriores, alcançando esquecimento zero em isolamento; (5) um *meta-roteador* sigmoide baseado em resultados, treinado em alvos de combinação de domínios descobertos empiricamente, que pondera seletivamente as pilhas, permitindo a composição cruzada de domínios. Dois experimentos de fronteira: (6) Pré-treinamento PSN em um modelo inicializado aleatoriamente; (7) RL por domínio (DPO/GRPO) validando a compatibilidade com o alinhamento pós-SFT. Validado em TinyLlama-1.1B (4 domínios, 9 pilhas) e Gemma 3 12B IT (5 domínios, 10 pilhas), o MoE-LoRA alcança convergência 2,5x mais rápida que um único LoRA com correspondência de parâmetros, o *residual boosting* supera o limite de pilha única, e o sistema roteado recupera a qualidade de geração destruída pelo acúmulo não controlado de pilhas. A descoberta central: o roteador baseado em resultados revela que as pilhas de domínio codificam primitivas cognitivas transferíveis (clareza na execução de instruções, raciocínio numérico, lógica procedural, estrutura de *chain-of-thought*) em vez de conhecimento específico do domínio, com *prompts* médicos sendo roteados para pilhas de chat+matemática em 97% dos casos, apesar da ausência de dados médicos nessas pilhas.
English
We present Brainstacks, a modular architecture for continual multi-domain fine-tuning of large language models that packages domain expertise as frozen adapter stacks composing additively on a shared frozen base at inference. Five interlocking components: (1) MoE-LoRA with Shazeer-style noisy top-2 routing across all seven transformer projections under QLoRA 4-bit quantization with rsLoRA scaling; (2) an inner loop performing residual boosting by freezing trained stacks and adding new ones; (3) an outer loop training sequential domain-specific stacks with curriculum-ordered dependencies; (4) null-space projection via randomized SVD constraining new stacks to subspaces orthogonal to prior directions, achieving zero forgetting in isolation; (5) an outcome-based sigmoid meta-router trained on empirically discovered domain-combination targets that selectively weights stacks, enabling cross-domain composition. Two boundary experiments: (6) PSN pretraining on a randomly initialized model; (7) per-domain RL (DPO/GRPO) validating compatibility with post-SFT alignment. Validated on TinyLlama-1.1B (4 domains, 9 stacks) and Gemma 3 12B IT (5 domains, 10 stacks), MoE-LoRA achieves 2.5x faster convergence than parameter-matched single LoRA, residual boosting breaks through the single-stack ceiling, and the routed system recovers generation quality destroyed by ungated stack accumulation. The central finding: the outcome-based router discovers that domain stacks encode transferable cognitive primitives (instruction-following clarity, numerical reasoning, procedural logic, chain-of-thought structure) rather than domain-specific knowledge, with medical prompts routing to chat+math stacks in 97% of cases despite zero medical data in those stacks.
PDF01April 4, 2026