ChatPaper.aiChatPaper

MeepleLM: Un Evaluador Virtual que Simula Experiencias Subjetivas Diversas

MeepleLM: A Virtual Playtester Simulating Diverse Subjective Experiences

January 12, 2026
Autores: Zizhen Li, Chuanhao Li, Yibin Wang, Yukang Feng, Jianwen Sun, Jiaxin Ai, Fanrui Zhang, Mingzhu Sun, Yifei Huang, Kaipeng Zhang
cs.AI

Resumen

Los avances recientes han ampliado el papel de los Modelos de Lenguaje a Gran Escala en los juegos de mesa, pasando de ser agentes jugadores a co-diseñadores creativos. Sin embargo, persiste una brecha crítica: los sistemas actuales carecen de la capacidad de ofrecer una crítica constructiva basada en la experiencia de usuario emergente. Salvar esta brecha es fundamental para armonizar la colaboración Humano-IA, ya que permite a los diseñadores refinar sus creaciones mediante perspectivas externas, al mismo tiempo que guía a los modelos lejos de resultados sesgados o impredecibles. La automatización de la crítica para juegos de mesa presenta dos desafíos: inferir las dinámicas latentes que conectan las reglas con la jugabilidad sin un motor explícito, y modelar la heterogeneidad subjetiva de diversos grupos de jugadores. Para abordarlos, hemos recopilado un conjunto de datos de 1.727 manuales de reglas estructuralmente corregidos y 150.000 reseñas seleccionadas mediante puntuación de calidad y muestreo consciente de facetas. Aumentamos estos datos con razonamiento Mecánicas-Dinámicas-Estéticas (MDA) para tender un puente explícito entre las reglas escritas y la experiencia del jugador. Además, destilamos arquetipos de jugador e introducimos MeepleLM, un modelo especializado que internaliza patrones de razonamiento específicos de cada arquetipo para simular con precisión la retroalimentación subjetiva de diversos perfiles de jugadores. Los experimentos demuestran que MeepleLM supera significativamente a los últimos modelos comerciales (por ejemplo, GPT-5.1, Gemini3-Pro) en alineación comunitaria y calidad de la crítica, logrando una tasa de preferencia del 70% en estudios de usuarios que evalúan su utilidad. MeepleLM sirve como un probador virtual confiable para sistemas interactivos generales, marcando un paso pivotal hacia una colaboración Humano-IA consciente de la experiencia y alineada con la audiencia.
English
Recent advancements have expanded the role of Large Language Models in board games from playing agents to creative co-designers. However, a critical gap remains: current systems lack the capacity to offer constructive critique grounded in the emergent user experience. Bridging this gap is fundamental for harmonizing Human-AI collaboration, as it empowers designers to refine their creations via external perspectives while steering models away from biased or unpredictable outcomes. Automating critique for board games presents two challenges: inferring the latent dynamics connecting rules to gameplay without an explicit engine, and modeling the subjective heterogeneity of diverse player groups. To address these, we curate a dataset of 1,727 structurally corrected rulebooks and 150K reviews selected via quality scoring and facet-aware sampling. We augment this data with Mechanics-Dynamics-Aesthetics (MDA) reasoning to explicitly bridge the causal gap between written rules and player experience. We further distill player personas and introduce MeepleLM, a specialized model that internalizes persona-specific reasoning patterns to accurately simulate the subjective feedback of diverse player archetypes. Experiments demonstrate that MeepleLM significantly outperforms latest commercial models (e.g., GPT-5.1, Gemini3-Pro) in community alignment and critique quality, achieving a 70% preference rate in user studies assessing utility. MeepleLM serves as a reliable virtual playtester for general interactive systems, marking a pivotal step towards audience-aligned, experience-aware Human-AI collaboration.
PDF82January 27, 2026