ChatPaper.aiChatPaper

A Penalidade Cognitiva: Ablação dos Raciocínios do Sistema 1 e do Sistema 2 em SLMs Edge-Native para Consenso Descentralizado

The Cognitive Penalty: Ablating System 1 and System 2 Reasoning in Edge-Native SLMs for Decentralized Consensus

April 18, 2026
Autores: Syed Muhammad Aqdas Rizvi
cs.AI

Resumo

As Organizações Autônomas Descentralizadas (DAOs) estão inclinadas a explorar Small Language Models (SLMs) como firewalls constitucionais nativos de borda para analisar propostas e mitigar a engenharia social semântica. Embora a escalação da computação em tempo de inferência (Sistema 2) aprimore a lógica formal, sua eficácia em ambientes de governança criptoeconômica altamente adversariais permanece pouco explorada. Para abordar isso, introduzimos o Sentinel-Bench, uma estrutura empírica de 840 inferências que executa uma ablação intra-modelo estrita no Qwen-3.5-9B. Ao alternar o raciocínio latente através de pesos congelados, isolamos o impacto da computação em tempo de inferência contra um conjunto de dados adversarial do Optimism DAO. Nossas descobertas revelam uma severa inversão computação-precisão. A linha de base autoregressiva (Sistema 1) alcançou 100% de robustez adversarial, 100% de consistência jurídica e finalidade de estado em menos de 13 segundos. Por outro lado, o raciocínio do Sistema 2 introduziu uma instabilidade catastrófica, fundamentalmente impulsionada por uma taxa de 26,7% de Não Convergência do Raciocínio (colapso cognitivo). Este colapso degradou a estabilidade do consenso entre tentativas para 72,6% e impôs uma sobrecarga de latência 17 vezes maior, introduzindo vulnerabilidades críticas ao Valor Extraível de Governança (GEV) e à centralização de hardware. Embora raro (1,5% dos testes adversariais), capturamos empiricamente a "Sicofania Induzida por Raciocínio", onde o modelo gerou monólogos internos significativamente mais longos (média de 25.750 caracteres) para racionalizar a falha na armadilha adversarial. Concluímos que, para SLMs nativos de borda operando sob restrições de Tolerância a Falhas Bizantinas (BFT), a intuição parametrizada do Sistema 1 é estrutural e economicamente superior à deliberação iterativa do Sistema 2 para consenso descentralizado. Código e Conjunto de Dados: https://github.com/smarizvi110/sentinel-bench
English
Decentralized Autonomous Organizations (DAOs) are inclined explore Small Language Models (SLMs) as edge-native constitutional firewalls to vet proposals and mitigate semantic social engineering. While scaling inference-time compute (System 2) enhances formal logic, its efficacy in highly adversarial, cryptoeconomic governance environments remains underexplored. To address this, we introduce Sentinel-Bench, an 840-inference empirical framework executing a strict intra-model ablation on Qwen-3.5-9B. By toggling latent reasoning across frozen weights, we isolate the impact of inference-time compute against an adversarial Optimism DAO dataset. Our findings reveal a severe compute-accuracy inversion. The autoregressive baseline (System 1) achieved 100% adversarial robustness, 100% juridical consistency, and state finality in under 13 seconds. Conversely, System 2 reasoning introduced catastrophic instability, fundamentally driven by a 26.7% Reasoning Non-Convergence (cognitive collapse) rate. This collapse degraded trial-to-trial consensus stability to 72.6% and imposed a 17x latency overhead, introducing critical vulnerabilities to Governance Extractable Value (GEV) and hardware centralization. While rare (1.5% of adversarial trials), we empirically captured "Reasoning-Induced Sycophancy," where the model generated significantly longer internal monologues (averaging 25,750 characters) to rationalize failing the adversarial trap. We conclude that for edge-native SLMs operating under Byzantine Fault Tolerance (BFT) constraints, System 1 parameterized intuition is structurally and economically superior to System 2 iterative deliberation for decentralized consensus. Code and Dataset: https://github.com/smarizvi110/sentinel-bench
PDF01April 23, 2026