Когда модели знают больше, чем могут объяснить: количественная оценка передачи знаний в коллаборации человека и ИИ
When Models Know More Than They Can Explain: Quantifying Knowledge Transfer in Human-AI Collaboration
June 5, 2025
Авторы: Quan Shi, Carlos E. Jimenez, Shunyu Yao, Nick Haber, Diyi Yang, Karthik Narasimhan
cs.AI
Аннотация
Последние достижения в области искусственного интеллекта (ИИ) в сфере рассуждений привели к значительным улучшениям в решении разнообразных задач. Ключевым открытым вопросом остается то, приводят ли эти улучшения также к более эффективной передаче знаний: способности моделей передавать свои рассуждения таким образом, чтобы люди могли их понять, применить и извлечь из них пользу. Для изучения этого вопроса мы представляем концептуальную и экспериментальную платформу под названием "Оценка интеграции и передачи знаний" (Knowledge Integration and Transfer Evaluation, KITE), предназначенную для анализа возможностей передачи знаний между человеком и ИИ, и проводим первое крупномасштабное исследование с участием людей (N=118), специально разработанное для измерения этой способности. В нашей двухэтапной схеме люди сначала совместно с ИИ разрабатывают стратегии решения задач, а затем самостоятельно реализуют решения, что позволяет изолировать влияние объяснений модели на понимание человеком. Наши результаты показывают, что, хотя производительность моделей на тестовых задачах коррелирует с результатами совместной работы, эта связь является заметно неоднозначной и включает значительные отклонения, что указывает на необходимость целенаправленной оптимизации для эффективной передачи знаний. Наш анализ выявляет поведенческие и стратегические факторы, опосредующие успешную передачу знаний. Мы публикуем наш код, набор данных и оценочную платформу для поддержки будущих исследований, направленных на создание моделей, ориентированных на коммуникацию.
English
Recent advancements in AI reasoning have driven substantial improvements
across diverse tasks. A critical open question is whether these improvements
also yields better knowledge transfer: the ability of models to communicate
reasoning in ways humans can understand, apply, and learn from. To investigate
this, we introduce Knowledge Integration and Transfer Evaluation (KITE), a
conceptual and experimental framework for Human-AI knowledge transfer
capabilities and conduct the first large-scale human study (N=118) explicitly
designed to measure it. In our two-phase setup, humans first ideate with an AI
on problem-solving strategies, then independently implement solutions,
isolating model explanations' influence on human understanding. Our findings
reveal that although model benchmark performance correlates with collaborative
outcomes, this relationship is notably inconsistent, featuring significant
outliers, indicating that knowledge transfer requires dedicated optimization.
Our analysis identifies behavioral and strategic factors mediating successful
knowledge transfer. We release our code, dataset, and evaluation framework to
support future work on communicatively aligned models.