ChatPaper.aiChatPaper

La Penalità Cognitiva: L'Ablazione del Ragionamento Sistema 1 e Sistema 2 nei Modelli Linguistici di Piccole Dimensioni Edge-Native per il Consenso Decentralizzato

The Cognitive Penalty: Ablating System 1 and System 2 Reasoning in Edge-Native SLMs for Decentralized Consensus

April 18, 2026
Autori: Syed Muhammad Aqdas Rizvi
cs.AI

Abstract

Le organizzazioni autonome decentralizzate (DAO) mostrano una propensione ad esplorare i Small Language Model (SLM) come firewall costituzionali edge-native per vagliare le proposte e mitigare l'ingegneria sociale semantica. Sebbene il potenziamento della potenza di calcolo in fase di inferenza (Sistema 2) migliori la logica formale, la sua efficacia in ambienti di governance criptoeconomica altamente avversativi rimane poco esplorata. Per affrontare ciò, introduciamo Sentinel-Bench, un framework empirico da 840 inferenze che esegue una rigorosa ablazione intra-modello su Qwen-3.5-9B. Attivando e disattivando il ragionamento latente su pesi congelati, isoliamo l'impatto della potenza di calcolo in inferenza rispetto a un dataset avversativo di Optimism DAO. I nostri risultati rivelano una severa inversione calcolo-accuratezza. La baseline autoregressiva (Sistema 1) ha raggiunto il 100% di robustezza avversativa, il 100% di coerenza giuridica e la finalità di stato in meno di 13 secondi. Al contrario, il ragionamento del Sistema 2 ha introdotto un'instabilità catastrofica, guidata fondamentalmente da un tasso del 26,7% di Non Convergenza del Ragionamento (collasso cognitivo). Questo collasso ha degradato la stabilità del consenso prova-per-prova al 72,6% e ha imposto un sovraccarico di latenza di 17x, introducendo vulnerabilità critiche al Valore Estraibile dalla Governance (GEV) e alla centralizzazione hardware. Sebbene rari (1,5% delle prove avversative), abbiamo catturato empiricamente la "Sicofanzia Indotta dal Ragionamento", dove il modello generava monologhi interni significativamente più lunghi (in media 25.750 caratteri) per razionalizzare il fallimento della trappola avversativa. Concludiamo che per gli SLM edge-native operanti sotto i vincoli della Tolleranza ai Guasti Bizantini (BFT), l'intuizione parametrica del Sistema 1 è strutturalmente ed economicamente superiore alla deliberazione iterativa del Sistema 2 per il consenso decentralizzato. Codice e Dataset: https://github.com/smarizvi110/sentinel-bench
English
Decentralized Autonomous Organizations (DAOs) are inclined explore Small Language Models (SLMs) as edge-native constitutional firewalls to vet proposals and mitigate semantic social engineering. While scaling inference-time compute (System 2) enhances formal logic, its efficacy in highly adversarial, cryptoeconomic governance environments remains underexplored. To address this, we introduce Sentinel-Bench, an 840-inference empirical framework executing a strict intra-model ablation on Qwen-3.5-9B. By toggling latent reasoning across frozen weights, we isolate the impact of inference-time compute against an adversarial Optimism DAO dataset. Our findings reveal a severe compute-accuracy inversion. The autoregressive baseline (System 1) achieved 100% adversarial robustness, 100% juridical consistency, and state finality in under 13 seconds. Conversely, System 2 reasoning introduced catastrophic instability, fundamentally driven by a 26.7% Reasoning Non-Convergence (cognitive collapse) rate. This collapse degraded trial-to-trial consensus stability to 72.6% and imposed a 17x latency overhead, introducing critical vulnerabilities to Governance Extractable Value (GEV) and hardware centralization. While rare (1.5% of adversarial trials), we empirically captured "Reasoning-Induced Sycophancy," where the model generated significantly longer internal monologues (averaging 25,750 characters) to rationalize failing the adversarial trap. We conclude that for edge-native SLMs operating under Byzantine Fault Tolerance (BFT) constraints, System 1 parameterized intuition is structurally and economically superior to System 2 iterative deliberation for decentralized consensus. Code and Dataset: https://github.com/smarizvi110/sentinel-bench
PDF01April 23, 2026