조합적 기계의 에이전트 중심 설계
Agentic Design of Compositional Machines
October 16, 2025
저자: Wenqian Zhang, Weiyang Liu, Zhen Liu
cs.AI
초록
복잡한 기계의 설계는 인간 지능의 표지이자 공학 실무의 기초로 자리 잡고 있습니다. 최근 대규모 언어 모델(LLM)의 발전을 고려할 때, 이들도 창조를 배울 수 있는지에 대한 질문을 제기합니다. 우리는 이 질문을 구성적 기계 설계의 관점에서 접근합니다: 이는 표준화된 부품들을 조립하여 시뮬레이션된 물리적 환경에서 이동이나 조작과 같은 기능적 요구를 충족시키는 기계를 만드는 작업입니다. 이를 지원하기 위해, 우리는 부품 기반 구성, 물리적 시뮬레이션, 그리고 보상 기반 평가를 가능하게 하는 기계 제작 게임 Besiege를 기반으로 한 테스트베드인 BesiegeField를 소개합니다. BesiegeField를 사용하여, 우리는 에이전트 워크플로우를 통해 최신 LLM을 벤치마킹하고, 공간 추론, 전략적 조립, 지시 따르기와 같은 성공에 필요한 핵심 능력을 식별합니다. 현재의 오픈소스 모델들이 부족한 점을 고려하여, 우리는 강화 학습(RL)을 개선의 경로로 탐구합니다: 콜드 스타트 데이터셋을 정제하고, RL 미세 조정 실험을 수행하며, 언어, 기계 설계, 물리적 추론의 교차점에서의 열린 과제들을 강조합니다.
English
The design of complex machines stands as both a marker of human intelligence
and a foundation of engineering practice. Given recent advances in large
language models (LLMs), we ask whether they, too, can learn to create. We
approach this question through the lens of compositional machine design: a task
in which machines are assembled from standardized components to meet functional
demands like locomotion or manipulation in a simulated physical environment. To
support this investigation, we introduce BesiegeField, a testbed built on the
machine-building game Besiege, which enables part-based construction, physical
simulation and reward-driven evaluation. Using BesiegeField, we benchmark
state-of-the-art LLMs with agentic workflows and identify key capabilities
required for success, including spatial reasoning, strategic assembly, and
instruction-following. As current open-source models fall short, we explore
reinforcement learning (RL) as a path to improvement: we curate a cold-start
dataset, conduct RL finetuning experiments, and highlight open challenges at
the intersection of language, machine design, and physical reasoning.