ChatPaper.aiChatPaper

GTAlign: Игро-теоретическое согласование ассистентов на основе больших языковых моделей для взаимного благополучия

GTAlign: Game-Theoretic Alignment of LLM Assistants for Mutual Welfare

October 10, 2025
Авторы: Siqi Zhu, David Zhang, Pedro Cisneros-Velarde, Jiaxuan You
cs.AI

Аннотация

Крупные языковые модели (LLMs) достигли значительных успехов в области рассуждений, однако иногда выдают ответы, которые не являются оптимальными для пользователей в таких задачах, как написание текстов, поиск информации или предоставление практических рекомендаций. Традиционные подходы к согласованию обычно предполагают, что максимизация вознаграждения модели также максимизирует благополучие пользователя, но на практике это предположение часто не оправдывается: модели могут излишне детализировать или генерировать чрезмерно многословные рассуждения, в то время как пользователи предпочитают краткие ответы. Такое поведение напоминает дилемму заключённого, когда индивидуально рациональные выборы приводят к социально неоптимальным результатам. Основная проблема заключается в отсутствии принципиального механизма принятия решений, который был бы взаимовыгоден как для LLM, так и для пользователя. Мы предлагаем Game-Theoretic Alignment (GTAlign) — фреймворк для согласования, который интегрирует теорию игр в процессы рассуждения и обучения. В ходе рассуждения модель явно рассматривает взаимодействие пользователя и LLM как стратегическую игру: она строит матрицы выигрышей в цепочке рассуждений для оценки благополучия как себя, так и пользователя, а затем выбирает действия, которые являются взаимовыгодными. В процессе обучения мы вводим вознаграждение за взаимное благополучие, которое усиливает кооперативные ответы, согласуя поведение модели с социально эффективными результатами. Кроме того, мы представляем метод вывода, который использует теорию игр для динамической адаптации ответа LLM при изменении ценовой политики сервиса. Эксперименты показывают, что GTAlign значительно улучшает эффективность рассуждений, качество ответов и взаимное благополучие по сравнению с базовыми подходами в различных задачах. Код доступен по адресу https://github.com/ulab-uiuc/GTAlign.
English
Large Language Models (LLMs) have achieved remarkable progress in reasoning, yet sometimes produce responses that are suboptimal for users in tasks such as writing, information seeking, or providing practical guidance. Conventional alignment practices typically assume that maximizing model reward also maximizes user welfare, but this assumption frequently fails in practice: models may over-clarify or generate overly verbose reasoning when users prefer concise answers. Such behaviors resemble the prisoner's dilemma, where individually rational choices lead to socially suboptimal outcomes. The fundamental challenge is the lack of a principled decision making mechanism that mutually benefits both the LLM and the user. We propose Game-Theoretic Alignment (GTAlign), an alignment framework that integrates game-theoretic decision making into both reasoning and training. During reasoning, the model explicitly treats user-LLM interaction as a strategic game: it constructs payoff matrices within its reasoning chain to estimate welfare for both itself and the user, and then selects actions that are mutually beneficial. During training, we introduce a mutual welfare reward that reinforces cooperative responses, aligning model behavior with socially efficient outcomes. In addition, we introduce an inference technique that leverages game-theoretic reasoning to dynamically adapt LLM's response when pricing policies of LLM service change. Extensive experiments demonstrate that GTAlign substantially improves reasoning efficiency, answer quality, and mutual welfare compared to baselines across diverse tasks. The code is available at https://github.com/ulab-uiuc/GTAlign .
PDF23October 13, 2025