ChatPaper.aiChatPaper

ゼロショット世界モデルは発達的に効率的な学習者である

Zero-shot World Models Are Developmentally Efficient Learners

April 11, 2026
著者: Khai Loong Aw, Klemen Kotar, Wanhee Lee, Seungwoo Kim, Khaled Jedoui, Rahul Venkatesh, Lilian Naing Chen, Michael C. Frank, Daniel L. K. Yamins
cs.AI

要旨

幼児は、物理的世界を理解する初期能力を示し、深度や運動、対象物の一貫性、相互作用、その他多くの物理的シーン理解の側面を推定します。子供たちはデータ効率が高く柔軟な認知システムであり、極めて限られた学習データにもかかわらず能力を構築し、無数の未学習課題に一般化します。これは今日の最先端AIシステムにとっても大きな課題です。本論文では、これらの能力に対する新たな計算論的仮説として、ゼロショット視覚世界モデル(ZWM)を提案します。ZWMは3つの原理に基づいています:外観と力学を分離した疎な時間因子化予測器、近似的因果推論によるゼロショット推定、そして推論の合成によるより複雑な能力の構築です。ZWMが単一の子供の一人称視点経験から学習可能であり、複数の物理理解ベンチマークにわたって急速に能力を生成できることを示します。また、子供の発達の行動的特徴を広く再現し、脳に類似した内部表現を構築します。本研究は、人間規模のデータからの効率的かつ柔軟な学習の青写真を示し、幼児の初期物理理解に関する計算論的説明と、データ効率の高いAIシステムへの道筋の両方を前進させるものです。
English
Young children demonstrate early abilities to understand their physical world, estimating depth, motion, object coherence, interactions, and many other aspects of physical scene understanding. Children are both data-efficient and flexible cognitive systems, creating competence despite extremely limited training data, while generalizing to myriad untrained tasks -- a major challenge even for today's best AI systems. Here we introduce a novel computational hypothesis for these abilities, the Zero-shot Visual World Model (ZWM). ZWM is based on three principles: a sparse temporally-factored predictor that decouples appearance from dynamics; zero-shot estimation through approximate causal inference; and composition of inferences to build more complex abilities. We show that ZWM can be learned from the first-person experience of a single child, rapidly generating competence across multiple physical understanding benchmarks. It also broadly recapitulates behavioral signatures of child development and builds brain-like internal representations. Our work presents a blueprint for efficient and flexible learning from human-scale data, advancing both a computational account for children's early physical understanding and a path toward data-efficient AI systems.
PDF61April 15, 2026