ChatPaper.aiChatPaper

OpenGame:ゲームのためのオープンエージェントコーディング

OpenGame: Open Agentic Coding for Games

April 20, 2026
著者: Yilei Jiang, Jinyuan Hu, Qianyin Xiao, Yaozhi Zheng, Ruize Ma, Kaituo Feng, Jiaming Han, Tianshuo Peng, Kaixuan Fan, Manyuan Zhang, Xiangyu Yue
cs.AI

要旨

ゲーム開発は、創造的なデザインと複雑なソフトウェア工学の交差点に位置し、ゲームエンジン、リアルタイムループ、多数のファイルにわたる緊密に結合された状態の協調的な統合を要求する。大規模言語モデル(LLM)やコードエージェントは現在、個別のプログラミングタスクを容易に解決するが、高レベルなデザインから完全にプレイ可能なゲームを生成するよう求められると、ファイル間の不整合、シーン配線の破綻、論理的不整合によって一貫してつまずき、崩壊してしまう。我々はこの隔たりを埋めるため、エンドツーエンドのWebゲーム作成に特化した初のオープンソースエージェントフレームワークであるOpenGameを提案する。その中核には、ゲームスキルと呼ばれる再利用可能で進化する能力がある。これは、経験からプロジェクトの骨格ライブラリを成長させるテンプレートスキルと、検証済み修正の動的プロトコルを維持するデバッグスキルで構成され、エージェントが安定したアーキテクチャを足場組みし、孤立した構文バグの修正ではなく統合エラーを体系的に修復することを可能にする。このフレームワークを支えるのは、継続的事前学習、教師ありファインチューニング、実行に基づく強化学習という3段階のパイプラインを通じてゲームエンジンの習得に特化したコードLLM、GameCoder-27Bである。インタラクティブなプレイ可能性の検証は静的コードのチェックよりも本質的に困難であるため、ヘッドレスブラウザ実行とVLM判定により、ビルド健全性、視覚的可用性、意図整合性の観点からエージェントによるゲーム生成を評価するOpenGame-Benchも導入する。150の多様なゲームプロンプトにわたる評価で、OpenGameは新たな最先端を確立した。我々はOpenGameがコードエージェントを個別のソフトウェア工学問題の枠を超え、複雑でインタラクティブな実世界アプリケーションの構築に向けて推進することを期待する。本フレームワークは完全にオープンソース化される。
English
Game development sits at the intersection of creative design and intricate software engineering, demanding the joint orchestration of game engines, real-time loops, and tightly coupled state across many files. While Large Language Models (LLMs) and code agents now solve isolated programming tasks with ease, they consistently stumble when asked to produce a fully playable game from a high-level design, collapsing under cross-file inconsistencies, broken scene wiring, and logical incoherence. We bridge this gap with OpenGame, the first open-source agentic framework explicitly designed for end-to-end web game creation. At its core lies Game Skill, a reusable, evolving capability composed of a Template Skill that grows a library of project skeletons from experience and a Debug Skill that maintains a living protocol of verified fixes - together enabling the agent to scaffold stable architectures and systematically repair integration errors rather than patch isolated syntax bugs. Powering this framework is GameCoder-27B, a code LLM specialized for game engine mastery through a three-stage pipeline of continual pre-training, supervised fine-tuning, and execution-grounded reinforcement learning. Since verifying interactive playability is fundamentally harder than checking static code, we further introduce OpenGame-Bench, an evaluation pipeline that scores agentic game generation along Build Health, Visual Usability, and Intent Alignment via headless browser execution and VLM judging. Across 150 diverse game prompts, OpenGame establishes a new state-of-the-art. We hope OpenGame pushes code agents beyond discrete software engineering problems and toward building complex, interactive real-world applications. Our framework will be fully open-sourced.
PDF522April 22, 2026