ChatPaper.aiChatPaper

MeepleLM: Виртуальный тестировщик, моделирующий разнообразные субъективные впечатления

MeepleLM: A Virtual Playtester Simulating Diverse Subjective Experiences

January 12, 2026
Авторы: Zizhen Li, Chuanhao Li, Yibin Wang, Yukang Feng, Jianwen Sun, Jiaxin Ai, Fanrui Zhang, Mingzhu Sun, Yifei Huang, Kaipeng Zhang
cs.AI

Аннотация

Недавние достижения расширили роль больших языковых моделей в настольных играх: от игровых агентов до креативных со-дизайнеров. Однако сохраняется критический пробел: современные системы не способны давать конструктивную критику, основанную на эмерджентном пользовательском опыте. Преодоление этого разрыва фундаментально для гармонизации сотрудничества человека и ИИ, поскольку оно позволяет дизайнерам улучшать свои творения с помощью внешних перспектив, одновременно направляя модели в сторону от предвзятых или непредсказуемых результатов. Автоматизация критики для настольных игр сталкивается с двумя проблемами: вывод скрытой динамики, связывающей правила с игровым процессом без явного движка, и моделирование субъективной неоднородности различных игровых групп. Для их решения мы собрали набор данных из 1727 структурно корректных книг правил и 150 000 отзывов, отобранных с помощью оценки качества и фасетно-ориентированной выборки. Мы обогащаем эти данные с помощью рассуждений в рамках методологии "Механика-Динамика-Эстетика" (MDA), чтобы явно преодолеть причинно-следственный разрыв между письменными правилами и игровым опытом. Мы также выделяем игровые персоналии и представляем MeepleLM — специализированную модель, которая усваивает характерные для персоналий шаблоны рассуждений для точного моделирования субъективной обратной связи различных игровых архетипов. Эксперименты показывают, что MeepleLM значительно превосходит новейшие коммерческие модели (например, GPT-5.1, Gemini3-Pro) по соответствию сообществу и качеству критики, достигая 70% предпочтения в пользовательских исследованиях, оценивающих полезность. MeepleLM служит надежным виртуальным тестировщиком для общих интерактивных систем, знаменуя ключевой шаг к ориентированному на аудиторию, учитывающему опыт сотрудничеству человека и ИИ.
English
Recent advancements have expanded the role of Large Language Models in board games from playing agents to creative co-designers. However, a critical gap remains: current systems lack the capacity to offer constructive critique grounded in the emergent user experience. Bridging this gap is fundamental for harmonizing Human-AI collaboration, as it empowers designers to refine their creations via external perspectives while steering models away from biased or unpredictable outcomes. Automating critique for board games presents two challenges: inferring the latent dynamics connecting rules to gameplay without an explicit engine, and modeling the subjective heterogeneity of diverse player groups. To address these, we curate a dataset of 1,727 structurally corrected rulebooks and 150K reviews selected via quality scoring and facet-aware sampling. We augment this data with Mechanics-Dynamics-Aesthetics (MDA) reasoning to explicitly bridge the causal gap between written rules and player experience. We further distill player personas and introduce MeepleLM, a specialized model that internalizes persona-specific reasoning patterns to accurately simulate the subjective feedback of diverse player archetypes. Experiments demonstrate that MeepleLM significantly outperforms latest commercial models (e.g., GPT-5.1, Gemini3-Pro) in community alignment and critique quality, achieving a 70% preference rate in user studies assessing utility. MeepleLM serves as a reliable virtual playtester for general interactive systems, marking a pivotal step towards audience-aligned, experience-aware Human-AI collaboration.
PDF82January 27, 2026