ChatPaper.aiChatPaper

단어 모델에서 세계 모델로: 자연어에서 확률적 사고 언어로의 번역

From Word Models to World Models: Translating from Natural Language to the Probabilistic Language of Thought

June 22, 2023
저자: Lionel Wong, Gabriel Grand, Alexander K. Lew, Noah D. Goodman, Vikash K. Mansinghka, Jacob Andreas, Joshua B. Tenenbaum
cs.AI

초록

언어는 우리의 하위 사고에 어떻게 영향을 미치는가? 특히, 인간은 언어로부터 어떻게 의미를 만들어내는가 -- 그리고 우리는 언어적 의미 이론을 활용하여 더 인간적인 방식으로 사고하는 기계를 어떻게 구축할 수 있는가? 본 논문에서 우리는 합리적 의미 구성(rational meaning construction)을 제안한다. 이는 언어의 신경망 모델과 합리적 추론을 위한 확률적 모델을 결합한 언어 기반 사고를 위한 계산 프레임워크이다. 우리는 언어적 의미를 자연어에서 확률적 사고 언어(Probabilistic Language of Thought, PLoT)로의 문맥 의존적 매핑으로 정의한다. PLoT는 확률적이고 생성적인 세계 모델링을 위한 범용 기호 기반이다. 우리의 아키텍처는 이전까지 결합되지 않았던 두 가지 강력한 계산 도구를 통합한다: 우리는 유연한 상식 추론을 위한 표현력 있는 표현인 확률적 프로그램(probabilistic programs)으로 사고를 모델링하고, 대규모 언어 모델(Large Language Models, LLMs)을 사용하여 자연어 발화를 확률적 프로그래밍 언어의 코드 표현으로 광범위하게 변환하는 의미 구성을 모델링한다. 우리는 이 프레임워크를 인지 과학의 네 가지 핵심 영역(확률적 추론, 논리 및 관계적 추론, 시각 및 물리적 추론, 에이전트와 그들의 계획에 대한 사회적 추론)을 다루는 예시를 통해 설명한다. 각 영역에서 우리는 LLM이 실용적으로 적절한 언어적 의미를 포착하는 문맥 의존적 변환을 생성할 수 있음을 보여주며, 생성된 프로그램을 사용한 베이지안 추론이 일관되고 견고한 상식 추론을 지원함을 보여준다. 우리는 이 프레임워크를 확장하여 인지적으로 동기 부여된 기호 모듈을 통합함으로써 언어로부터 통합된 상식 사고 인터페이스를 제공한다. 마지막으로, 언어가 세계 모델 자체의 구성을 어떻게 주도할 수 있는지 탐구한다.
English
How does language inform our downstream thinking? In particular, how do humans make meaning from language -- and how can we leverage a theory of linguistic meaning to build machines that think in more human-like ways? In this paper, we propose rational meaning construction, a computational framework for language-informed thinking that combines neural models of language with probabilistic models for rational inference. We frame linguistic meaning as a context-sensitive mapping from natural language into a probabilistic language of thought (PLoT) -- a general-purpose symbolic substrate for probabilistic, generative world modeling. Our architecture integrates two powerful computational tools that have not previously come together: we model thinking with probabilistic programs, an expressive representation for flexible commonsense reasoning; and we model meaning construction with large language models (LLMs), which support broad-coverage translation from natural language utterances to code expressions in a probabilistic programming language. We illustrate our framework in action through examples covering four core domains from cognitive science: probabilistic reasoning, logical and relational reasoning, visual and physical reasoning, and social reasoning about agents and their plans. In each, we show that LLMs can generate context-sensitive translations that capture pragmatically-appropriate linguistic meanings, while Bayesian inference with the generated programs supports coherent and robust commonsense reasoning. We extend our framework to integrate cognitively-motivated symbolic modules to provide a unified commonsense thinking interface from language. Finally, we explore how language can drive the construction of world models themselves.
PDF261December 15, 2024