ChatPaper.aiChatPaper

GTAlign: Alineación Basada en Teoría de Juegos de Asistentes de LLM para el Bienestar Mutuo

GTAlign: Game-Theoretic Alignment of LLM Assistants for Mutual Welfare

October 10, 2025
Autores: Siqi Zhu, David Zhang, Pedro Cisneros-Velarde, Jiaxuan You
cs.AI

Resumen

Los Modelos de Lenguaje a Gran Escala (LLMs, por sus siglas en inglés) han logrado avances notables en razonamiento, aunque en ocasiones generan respuestas subóptimas para los usuarios en tareas como redacción, búsqueda de información o provisión de orientación práctica. Las prácticas convencionales de alineación suelen asumir que maximizar la recompensa del modelo también maximiza el bienestar del usuario, pero esta suposición frecuentemente falla en la práctica: los modelos pueden sobre-explicar o generar razonamientos excesivamente verbosos cuando los usuarios prefieren respuestas concisas. Estos comportamientos se asemejan al dilema del prisionero, donde elecciones individualmente racionales conducen a resultados socialmente subóptimos. El desafío fundamental es la falta de un mecanismo de toma de decisiones basado en principios que beneficie mutuamente tanto al LLM como al usuario. Proponemos Alineación Teórica de Juegos (GTAlign, por sus siglas en inglés), un marco de alineación que integra la toma de decisiones basada en teoría de juegos tanto en el razonamiento como en el entrenamiento. Durante el razonamiento, el modelo trata explícitamente la interacción usuario-LLM como un juego estratégico: construye matrices de pagos dentro de su cadena de razonamiento para estimar el bienestar tanto para sí mismo como para el usuario, y luego selecciona acciones que son mutuamente beneficiosas. Durante el entrenamiento, introducimos una recompensa de bienestar mutuo que refuerza respuestas cooperativas, alineando el comportamiento del modelo con resultados socialmente eficientes. Además, presentamos una técnica de inferencia que aprovecha el razonamiento teórico de juegos para adaptar dinámicamente la respuesta del LLM cuando cambian las políticas de precios del servicio de LLM. Experimentos extensivos demuestran que GTAlign mejora sustancialmente la eficiencia del razonamiento, la calidad de las respuestas y el bienestar mutuo en comparación con los métodos de referencia en diversas tareas. El código está disponible en https://github.com/ulab-uiuc/GTAlign.
English
Large Language Models (LLMs) have achieved remarkable progress in reasoning, yet sometimes produce responses that are suboptimal for users in tasks such as writing, information seeking, or providing practical guidance. Conventional alignment practices typically assume that maximizing model reward also maximizes user welfare, but this assumption frequently fails in practice: models may over-clarify or generate overly verbose reasoning when users prefer concise answers. Such behaviors resemble the prisoner's dilemma, where individually rational choices lead to socially suboptimal outcomes. The fundamental challenge is the lack of a principled decision making mechanism that mutually benefits both the LLM and the user. We propose Game-Theoretic Alignment (GTAlign), an alignment framework that integrates game-theoretic decision making into both reasoning and training. During reasoning, the model explicitly treats user-LLM interaction as a strategic game: it constructs payoff matrices within its reasoning chain to estimate welfare for both itself and the user, and then selects actions that are mutually beneficial. During training, we introduce a mutual welfare reward that reinforces cooperative responses, aligning model behavior with socially efficient outcomes. In addition, we introduce an inference technique that leverages game-theoretic reasoning to dynamically adapt LLM's response when pricing policies of LLM service change. Extensive experiments demonstrate that GTAlign substantially improves reasoning efficiency, answer quality, and mutual welfare compared to baselines across diverse tasks. The code is available at https://github.com/ulab-uiuc/GTAlign .
PDF23October 13, 2025