От моделей слов к моделям мира: переход от естественного языка к вероятностному языку мышления
From Word Models to World Models: Translating from Natural Language to the Probabilistic Language of Thought
June 22, 2023
Авторы: Lionel Wong, Gabriel Grand, Alexander K. Lew, Noah D. Goodman, Vikash K. Mansinghka, Jacob Andreas, Joshua B. Tenenbaum
cs.AI
Аннотация
Как язык влияет на наше последующее мышление? В частности, как люди извлекают смысл из языка — и как мы можем использовать теорию лингвистического значения для создания машин, которые мыслят более человекообразным способом? В данной статье мы предлагаем рациональное конструирование смысла — вычислительную основу для мышления, основанного на языке, которая объединяет нейронные модели языка с вероятностными моделями для рационального вывода. Мы рассматриваем лингвистическое значение как контекстно-зависимое отображение естественного языка в вероятностный язык мысли (PLoT) — универсальный символический субстрат для вероятностного, генеративного моделирования мира. Наша архитектура интегрирует два мощных вычислительных инструмента, которые ранее не использовались вместе: мы моделируем мышление с помощью вероятностных программ, выразительного представления для гибкого здравого смысла; и мы моделируем конструирование смысла с использованием больших языковых моделей (LLM), которые поддерживают широкий охват перевода высказываний естественного языка в выражения кода на вероятностном языке программирования. Мы демонстрируем нашу концепцию в действии на примерах, охватывающих четыре ключевые области когнитивной науки: вероятностное рассуждение, логическое и реляционное рассуждение, визуальное и физическое рассуждение, а также социальное рассуждение о агентах и их планах. В каждом случае мы показываем, что LLM могут генерировать контекстно-зависимые переводы, которые захватывают прагматически уместные лингвистические значения, в то время как байесовский вывод с использованием сгенерированных программ поддерживает последовательное и устойчивое рассуждение на основе здравого смысла. Мы расширяем нашу концепцию, интегрируя когнитивно мотивированные символические модули, чтобы предоставить унифицированный интерфейс для здравого смысла, основанного на языке. Наконец, мы исследуем, как язык может направлять конструирование самих моделей мира.
English
How does language inform our downstream thinking? In particular, how do
humans make meaning from language -- and how can we leverage a theory of
linguistic meaning to build machines that think in more human-like ways? In
this paper, we propose rational meaning construction, a computational
framework for language-informed thinking that combines neural models of
language with probabilistic models for rational inference. We frame linguistic
meaning as a context-sensitive mapping from natural language into a
probabilistic language of thought (PLoT) -- a general-purpose symbolic
substrate for probabilistic, generative world modeling. Our architecture
integrates two powerful computational tools that have not previously come
together: we model thinking with probabilistic programs, an expressive
representation for flexible commonsense reasoning; and we model meaning
construction with large language models (LLMs), which support
broad-coverage translation from natural language utterances to code expressions
in a probabilistic programming language. We illustrate our framework in action
through examples covering four core domains from cognitive science:
probabilistic reasoning, logical and relational reasoning, visual and physical
reasoning, and social reasoning about agents and their plans. In each, we show
that LLMs can generate context-sensitive translations that capture
pragmatically-appropriate linguistic meanings, while Bayesian inference with
the generated programs supports coherent and robust commonsense reasoning. We
extend our framework to integrate cognitively-motivated symbolic modules to
provide a unified commonsense thinking interface from language. Finally, we
explore how language can drive the construction of world models themselves.