OpenGame: 게임을 위한 오픈 에이전트 코딩
OpenGame: Open Agentic Coding for Games
April 20, 2026
저자: Yilei Jiang, Jinyuan Hu, Qianyin Xiao, Yaozhi Zheng, Ruize Ma, Kaituo Feng, Jiaming Han, Tianshuo Peng, Kaixuan Fan, Manyuan Zhang, Xiangyu Yue
cs.AI
초록
게임 개발은 창의적 디자인과 복잡한 소프트웨어 공학의 교차점에 위치하며, 게임 엔진, 실시간 루프, 그리고 수많은 파일에 걸친 긴밀하게 결합된 상태의 공동 조화를 요구합니다. 대규모 언어 모델(LLM)과 코드 에이전트가 이제 고립된 프로그래밍 작업을 쉽게 해결하지만, 높은 수준의 설계로부터 완전히 실행 가능한 게임을 생성하라는 요청을 받으면 파일 간 불일치, 끊어진 장면 연결, 논리적 비일관성으로 인해 지속적으로 실패합니다. 우리는 이러한 격차를 end-to-end 웹 게임 생성에 특화된 최초의 오픈소스 에이전트 프레임워크인 OpenGame으로 메웁니다. 그 핵심에는 재사용 가능하고 진화하는 능력인 Game Skill이 있으며, 이는 경험으로부터 프로젝트 골격 라이브러리를 성장시키는 Template Skill과 검증된 수정 사항의 활성 프로토콜을 유지하는 Debug Skill로 구성되어, 에이전트가 안정적인 아키텍처를 구성하고 고립된 구문 오류를 수정하는 대신 통합 오류를 체계적으로 수리할 수 있게 합니다.
이 프레임워크의 동력은 GameCoder-27B로, 지속적인 사전 학습, 지도 미세 조정, 실행 기반 강화 학습의 3단계 파이프라인을 통해 게임 엔진 숙달에 특화된 코드 LLM입니다. 상호작용 가능한 플레이 가능성을 검증하는 것이 정적 코드를 확인하는 것보다 근본적으로 더 어렵기 때문에, 우리는 헤드리스 브라우저 실행과 VLM(Vision-Language Model) 평가를 통해 에이전트의 게임 생성 결과를 빌드 상태, 시각적 사용성, 의도 정합성 측면에서 점수화하는 평가 파이프라인인 OpenGame-Bench를 추가로 소개합니다. 150개의 다양한 게임 프롬프트에 걸쳐 OpenGame은 새로운 최첨단 기술을确立합니다. 우리는 OpenGame이 코드 에이전트가 이산적인 소프트웨어 공학 문제를 넘어 복잡하고 상호작용적인 현실 세계 애플리케이션을 구축하는 방향으로 나아가도록 추진력을 주길 바랍니다. 우리의 프레임워크는 완전히 오픈소스로 공개될 예정입니다.
English
Game development sits at the intersection of creative design and intricate software engineering, demanding the joint orchestration of game engines, real-time loops, and tightly coupled state across many files. While Large Language Models (LLMs) and code agents now solve isolated programming tasks with ease, they consistently stumble when asked to produce a fully playable game from a high-level design, collapsing under cross-file inconsistencies, broken scene wiring, and logical incoherence. We bridge this gap with OpenGame, the first open-source agentic framework explicitly designed for end-to-end web game creation. At its core lies Game Skill, a reusable, evolving capability composed of a Template Skill that grows a library of project skeletons from experience and a Debug Skill that maintains a living protocol of verified fixes - together enabling the agent to scaffold stable architectures and systematically repair integration errors rather than patch isolated syntax bugs. Powering this framework is GameCoder-27B, a code LLM specialized for game engine mastery through a three-stage pipeline of continual pre-training, supervised fine-tuning, and execution-grounded reinforcement learning. Since verifying interactive playability is fundamentally harder than checking static code, we further introduce OpenGame-Bench, an evaluation pipeline that scores agentic game generation along Build Health, Visual Usability, and Intent Alignment via headless browser execution and VLM judging. Across 150 diverse game prompts, OpenGame establishes a new state-of-the-art. We hope OpenGame pushes code agents beyond discrete software engineering problems and toward building complex, interactive real-world applications. Our framework will be fully open-sourced.