ChatPaper.aiChatPaper

MeepleLM: Um Jogador Virtual que Simula Experiências Subjetivas Diversas

MeepleLM: A Virtual Playtester Simulating Diverse Subjective Experiences

January 12, 2026
Autores: Zizhen Li, Chuanhao Li, Yibin Wang, Yukang Feng, Jianwen Sun, Jiaxin Ai, Fanrui Zhang, Mingzhu Sun, Yifei Huang, Kaipeng Zhang
cs.AI

Resumo

Os avanços recentes expandiram o papel dos Grandes Modelos de Linguagem em jogos de tabuleiro, passando de agentes jogadores para co-criadores criativos. No entanto, uma lacuna crítica permanece: os sistemas atuais carecem da capacidade de oferecer críticas construtivas fundamentadas na experiência do usuário emergente. Preencher essa lacuna é fundamental para harmonizar a colaboração Humano-IA, pois capacita os designers a refinar suas criações através de perspectivas externas, ao mesmo tempo que direciona os modelos para longe de resultados tendenciosos ou imprevisíveis. Automatizar a crítica para jogos de tabuleiro apresenta dois desafios: inferir a dinâmica latente que conecta as regras à jogabilidade sem um motor explícito e modelar a heterogeneidade subjetiva de diversos grupos de jogadores. Para abordar isso, reunimos um conjunto de dados com 1.727 manuais de regras estruturalmente corrigidos e 150.000 análises selecionadas através de pontuação de qualidade e amostragem consciente de facetas. Aumentamos esses dados com raciocínio Mecânica-Dinâmica-Estética (MDA) para ligar explicitamente a lacuna causal entre as regras escritas e a experiência do jogador. Além disso, destilamos personas de jogadores e introduzimos o MeepleLM, um modelo especializado que internaliza padrões de raciocínio específicos de cada persona para simular com precisão o feedback subjetivo de diversos arquétipos de jogadores. Experimentos demonstram que o MeepleLM supera significativamente os últimos modelos comerciais (por exemplo, GPT-5.1, Gemini3-Pro) em alinhamento com a comunidade e qualidade da crítica, alcançando uma taxa de preferência de 70% em estudos de usuários que avaliam a utilidade. O MeepleLM serve como um testador de jogabilidade virtual confiável para sistemas interativos gerais, marcando um passo crucial para uma colaboração Humano-IA alinhada com o público e consciente da experiência.
English
Recent advancements have expanded the role of Large Language Models in board games from playing agents to creative co-designers. However, a critical gap remains: current systems lack the capacity to offer constructive critique grounded in the emergent user experience. Bridging this gap is fundamental for harmonizing Human-AI collaboration, as it empowers designers to refine their creations via external perspectives while steering models away from biased or unpredictable outcomes. Automating critique for board games presents two challenges: inferring the latent dynamics connecting rules to gameplay without an explicit engine, and modeling the subjective heterogeneity of diverse player groups. To address these, we curate a dataset of 1,727 structurally corrected rulebooks and 150K reviews selected via quality scoring and facet-aware sampling. We augment this data with Mechanics-Dynamics-Aesthetics (MDA) reasoning to explicitly bridge the causal gap between written rules and player experience. We further distill player personas and introduce MeepleLM, a specialized model that internalizes persona-specific reasoning patterns to accurately simulate the subjective feedback of diverse player archetypes. Experiments demonstrate that MeepleLM significantly outperforms latest commercial models (e.g., GPT-5.1, Gemini3-Pro) in community alignment and critique quality, achieving a 70% preference rate in user studies assessing utility. MeepleLM serves as a reliable virtual playtester for general interactive systems, marking a pivotal step towards audience-aligned, experience-aware Human-AI collaboration.
PDF113February 7, 2026