ChatPaper.aiChatPaper

Будьте внимательны (шаг за шагом): Цепочка мыслей может снизить производительность на задачах, где размышления делают человека хуже.

Mind Your Step (by Step): Chain-of-Thought can Reduce Performance on Tasks where Thinking Makes Humans Worse

October 27, 2024
Авторы: Ryan Liu, Jiayi Geng, Addison J. Wu, Ilia Sucholutsky, Tania Lombrozo, Thomas L. Griffiths
cs.AI

Аннотация

Методика "цепочки мыслей" (CoT) стала широко используемой стратегией для работы с крупными языковыми и мультимодальными моделями. Хотя CoT показала улучшение производительности во многих задачах, определение условий, в которых она эффективна, остается предметом постоянного изучения. В частности, до сих пор остается открытым вопрос о том, в каких условиях CoT систематически снижает производительность модели. В данной статье мы стремимся выявить характеристики задач, в которых CoT снижает производительность, черпая вдохновение из когнитивной психологии, рассматривая случаи, когда (i) вербальное мышление или обдумывание вредит производительности у людей, и (ii) ограничения, регулирующие человеческую производительность, обобщаются на языковые модели. Три таких случая - это неявное статистическое обучение, визуальное распознавание и классификация с образцами, содержащими исключения. В рамках обширных экспериментов во всех трех условиях мы обнаружили, что разнообразная коллекция передовых моделей показывает значительное снижение производительности (например, до 36,3% абсолютной точности для OpenAI o1-preview по сравнению с GPT-4o), когда используется рассуждение во время вывода по сравнению с моделями нулевого шага. Мы также выявили три задачи, удовлетворяющие условию (i), но не (ii), и обнаружили, что в то время как вербальное мышление снижает производительность у людей в этих задачах, CoT сохраняет или увеличивает производительность модели. В целом, наши результаты показывают, что хотя нет точного параллелизма между когнитивными процессами моделей и человеческими, рассмотрение случаев, когда мышление имеет негативные последствия для производительности человека, может помочь нам выявить условия, в которых оно негативно сказывается на моделях. Связывая литературу по человеческому обдумыванию с оценками CoT, мы предлагаем новый инструмент, который можно использовать для понимания влияния выбора подсказок и рассуждения во время вывода.
English
Chain-of-thought (CoT) prompting has become a widely used strategy for working with large language and multimodal models. While CoT has been shown to improve performance across many tasks, determining the settings in which it is effective remains an ongoing effort. In particular, it is still an open question in what settings CoT systematically reduces model performance. In this paper, we seek to identify the characteristics of tasks where CoT reduces performance by drawing inspiration from cognitive psychology, looking at cases where (i) verbal thinking or deliberation hurts performance in humans, and (ii) the constraints governing human performance generalize to language models. Three such cases are implicit statistical learning, visual recognition, and classifying with patterns containing exceptions. In extensive experiments across all three settings, we find that a diverse collection of state-of-the-art models exhibit significant drop-offs in performance (e.g., up to 36.3% absolute accuracy for OpenAI o1-preview compared to GPT-4o) when using inference-time reasoning compared to zero-shot counterparts. We also identify three tasks that satisfy condition (i) but not (ii), and find that while verbal thinking reduces human performance in these tasks, CoT retains or increases model performance. Overall, our results show that while there is not an exact parallel between the cognitive processes of models and those of humans, considering cases where thinking has negative consequences for human performance can help us identify settings where it negatively impacts models. By connecting the literature on human deliberation with evaluations of CoT, we offer a new tool that can be used in understanding the impact of prompt choices and inference-time reasoning.

Summary

AI-Generated Summary

PDF122November 16, 2024