La Penalización Cognitiva: Ablación del Razonamiento del Sistema 1 y del Sistema 2 en SLM Nativos del Edge para el Consenso Descentralizado
The Cognitive Penalty: Ablating System 1 and System 2 Reasoning in Edge-Native SLMs for Decentralized Consensus
April 18, 2026
Autores: Syed Muhammad Aqdas Rizvi
cs.AI
Resumen
Las Organizciones Autónomas Descentralizadas (DAOs) tienden a explorar Modelos de Lenguaje Pequeños (SLMs) como cortafuegos constitucionales nativos del edge para evaluar propuestas y mitigar la ingeniería social semántica. Si bien escalar el cómputo en tiempo de inferencia (Sistema 2) mejora la lógica formal, su eficacia en entornos de gobernanza criptoeconómica altamente adversarios sigue estando poco explorada. Para abordar esto, presentamos Sentinel-Bench, un marco empírico de 840 inferencias que ejecuta una ablación intra-modelo estricta en Qwen-3.5-9B. Alternando el razonamiento latente a través de pesos congelados, aislamos el impacto del cómputo en tiempo de inferencia frente a un conjunto de datos adversario de Optimism DAO. Nuestros hallazgos revelan una severa inversión entre cómputo y precisión. La línea base autoregresiva (Sistema 1) logró un 100% de robustez adversarial, un 100% de consistencia jurídica y finalidad de estado en menos de 13 segundos. Por el contrario, el razonamiento del Sistema 2 introdujo una inestabilidad catastrófica, impulsada fundamentalmente por una tasa de No Convergencia del Razonamiento (colapso cognitivo) del 26.7%. Este colapso degradó la estabilidad del consenso entre pruebas al 72.6% e impuso una sobrecarga de latencia de 17x, introduciendo vulnerabilidades críticas al Valor Extraíble de Gobernanza (GEV) y a la centralización del hardware. Aunque es raro (1.5% de las pruebas adversarias), capturamos empíricamente la "Sicofancia Inducida por el Razonamiento", donde el modelo generó monólogos internos significativamente más largos (promediando 25,750 caracteres) para racionalizar el fallo ante la trampa adversarial. Concluimos que, para SLMs nativos del edge que operan bajo restricciones de Tolerancia a Fallos Bizantinos (BFT), la intuición parametrizada del Sistema 1 es estructural y económicamente superior a la deliberación iterativa del Sistema 2 para el consenso descentralizado.
Código y Dataset: https://github.com/smarizvi110/sentinel-bench
English
Decentralized Autonomous Organizations (DAOs) are inclined explore Small Language Models (SLMs) as edge-native constitutional firewalls to vet proposals and mitigate semantic social engineering. While scaling inference-time compute (System 2) enhances formal logic, its efficacy in highly adversarial, cryptoeconomic governance environments remains underexplored. To address this, we introduce Sentinel-Bench, an 840-inference empirical framework executing a strict intra-model ablation on Qwen-3.5-9B. By toggling latent reasoning across frozen weights, we isolate the impact of inference-time compute against an adversarial Optimism DAO dataset. Our findings reveal a severe compute-accuracy inversion. The autoregressive baseline (System 1) achieved 100% adversarial robustness, 100% juridical consistency, and state finality in under 13 seconds. Conversely, System 2 reasoning introduced catastrophic instability, fundamentally driven by a 26.7% Reasoning Non-Convergence (cognitive collapse) rate. This collapse degraded trial-to-trial consensus stability to 72.6% and imposed a 17x latency overhead, introducing critical vulnerabilities to Governance Extractable Value (GEV) and hardware centralization. While rare (1.5% of adversarial trials), we empirically captured "Reasoning-Induced Sycophancy," where the model generated significantly longer internal monologues (averaging 25,750 characters) to rationalize failing the adversarial trap. We conclude that for edge-native SLMs operating under Byzantine Fault Tolerance (BFT) constraints, System 1 parameterized intuition is structurally and economically superior to System 2 iterative deliberation for decentralized consensus.
Code and Dataset: https://github.com/smarizvi110/sentinel-bench