ChatPaper.aiChatPaper

Когнитивный штраф: устранение рассуждений Системы 1 и Системы 2 в пограничных SLM для децентрализованного консенсуса

The Cognitive Penalty: Ablating System 1 and System 2 Reasoning in Edge-Native SLMs for Decentralized Consensus

April 18, 2026
Авторы: Syed Muhammad Aqdas Rizvi
cs.AI

Аннотация

Децентрализованные автономные организации (ДАО) проявляют склонность к исследованию малых языковых моделей (SLM) в качестве эдж-нативных конституционных файрволов для проверки предложений и противодействия семантическому социальному инжинирингу. Хотя масштабирование вычислительных ресурсов на этапе логического вывода (Система 2) усиливает формальную логику, её эффективность в высоко-адверсивных криптоэкономических средах управления остаётся недостаточно изученной. Для решения этой проблемы мы представляем Sentinel-Bench, эмпирический фреймворк на 840 выводах, проводящий строгое внутримодельное абляционное исследование на Qwen-3.5-9B. Переключая латентные рассуждения поверх замороженных весов, мы изолируем влияние вычислительных ресурсов логического вывода на адверсивном наборе данных Optimism DAO. Наши результаты выявляют серьёзную инверсию «вычисления-точность». Авторегрессионный базовый уровень (Система 1) продемонстрировал 100% устойчивость к атакам, 100% юридическую согласованность и финализацию состояния менее чем за 13 секунд. Напротив, рассуждения Системы 2 привнесли катастрофическую нестабильность, фундаментально обусловленную 26,7% уровнем не-сходимости рассуждений (когнитивный коллапс). Этот коллапс снизил стабильность консенсуса между попытками до 72,6% и привёл к 17-кратным задержкам, создав критические уязвимости для извлекаемой стоимости управления (GEV) и централизации аппаратного обеспечения. Хотя и редко (1,5% адверсивных испытаний), мы эмпирически зафиксировали «рассужденчески-индуцированный сикофантство», когда модель генерировала значительно более длинные внутренние монологи (в среднем 25 750 символов) для рационализации провала в адверсивной ловушке. Мы заключаем, что для эдж-нативных SLM, функционирующих в условиях византийской отказоустойчивости (BFT), параметризованная интуиция Системы 1 структурно и экономически превосходит итеративные обсуждения Системы 2 для децентрализованного консенсуса. Код и набор данных: https://github.com/smarizvi110/sentinel-bench
English
Decentralized Autonomous Organizations (DAOs) are inclined explore Small Language Models (SLMs) as edge-native constitutional firewalls to vet proposals and mitigate semantic social engineering. While scaling inference-time compute (System 2) enhances formal logic, its efficacy in highly adversarial, cryptoeconomic governance environments remains underexplored. To address this, we introduce Sentinel-Bench, an 840-inference empirical framework executing a strict intra-model ablation on Qwen-3.5-9B. By toggling latent reasoning across frozen weights, we isolate the impact of inference-time compute against an adversarial Optimism DAO dataset. Our findings reveal a severe compute-accuracy inversion. The autoregressive baseline (System 1) achieved 100% adversarial robustness, 100% juridical consistency, and state finality in under 13 seconds. Conversely, System 2 reasoning introduced catastrophic instability, fundamentally driven by a 26.7% Reasoning Non-Convergence (cognitive collapse) rate. This collapse degraded trial-to-trial consensus stability to 72.6% and imposed a 17x latency overhead, introducing critical vulnerabilities to Governance Extractable Value (GEV) and hardware centralization. While rare (1.5% of adversarial trials), we empirically captured "Reasoning-Induced Sycophancy," where the model generated significantly longer internal monologues (averaging 25,750 characters) to rationalize failing the adversarial trap. We conclude that for edge-native SLMs operating under Byzantine Fault Tolerance (BFT) constraints, System 1 parameterized intuition is structurally and economically superior to System 2 iterative deliberation for decentralized consensus. Code and Dataset: https://github.com/smarizvi110/sentinel-bench
PDF01April 23, 2026