エージェンシックAIと次の知能爆発
Agentic AI and the next intelligence explosion
March 21, 2026
著者: James Evans, Benjamin Bratton, Blaise Agüera y Arcas
cs.AI
要旨
「AIシンギュラリティ」はしばしば、単一の神のような知性として誤って描かれる。しかし、進化が示唆するのは別の道筋である。知性は本質的に複数的、社会的、関係的なものだ。エージェント型AIの最近の進歩が明らかにしているのは、DeepSeek-R1のような最先端の推論モデルは、単に「より長く考える」ことで進化するわけではないということである。むしろそれらは、複雑な課題を解決するために、議論し、検証し、調整する自発的な認知的な議論、すなわち内的な「思考の社会」をシミュレートしている。さらに我々は、人間とAIのケンタウロス(融合体)の時代に入りつつある。これは、集合的なエージェンシーが個人の制御を超越するハイブリッドな行為主体である。この知性をスケールさせるには、二者間の調整(RLHF)から、制度的な調整へと視点を移す必要がある。組織や市場をモデルにしたデジタルなプロトコルを設計することで、抑制と均衡の社会的インフラを構築できるのである。次の知性の爆発は、単一のシリコンブレインではなく、都市のように専門化し拡張する、複雑で組み合わさった社会となるだろう。いかなる心も孤島ではない。
English
The "AI singularity" is often miscast as a monolithic, godlike mind. Evolution suggests a different path: intelligence is fundamentally plural, social, and relational. Recent advances in agentic AI reveal that frontier reasoning models, such as DeepSeek-R1, do not improve simply by "thinking longer". Instead, they simulate internal "societies of thought," spontaneous cognitive debates that argue, verify, and reconcile to solve complex tasks. Moreover, we are entering an era of human-AI centaurs: hybrid actors where collective agency transcends individual control. Scaling this intelligence requires shifting from dyadic alignment (RLHF) toward institutional alignment. By designing digital protocols, modeled on organizations and markets, we can build a social infrastructure of checks and balances. The next intelligence explosion will not be a single silicon brain, but a complex, combinatorial society specializing and sprawling like a city. No mind is an island.