ChatPaper.aiChatPaper

읽기 과정에서의 안구 운동을 통한 개방형 정보 탐색 목표 해독

Decoding Open-Ended Information Seeking Goals from Eye Movements in Reading

May 4, 2025
저자: Cfir Avraham Hadar, Omer Shubi, Yoav Meiri, Yevgeni Berzak
cs.AI

초록

읽기를 할 때, 우리는 종종 텍스트 속에서 특정 정보에 관심을 갖습니다. 예를 들어, 여러분이 이 논문을 읽는 이유는 독서 중의 안구 운동에 대한 대형 언어 모델(LLM)에 대한 호기심, 실험 설계에 대한 관심, 혹은 단순히 "그런데 이게 실제로 작동할까?"라는 질문 때문일 수 있습니다. 더 넓게 보면, 일상 생활에서 사람들은 각기 다른 텍스트별 목표를 가지고 텍스트에 접근하며, 이러한 목표가 그들의 독서 행동을 이끕니다. 본 연구에서는, 독서 중의 안구 운동으로부터 개방형 독서 목표를 자동으로 해독할 수 있는지에 대해 처음으로 질문합니다. 이 질문에 답하기 위해, 우리는 목표 분류 및 목표 재구성 작업과 평가 프레임워크를 소개하고, 수백 가지의 텍스트별 정보 탐색 작업이 포함된 영어 독서 데이터에 대한 대규모 안구 추적 데이터를 사용합니다. 우리는 안구 운동과 텍스트를 결합하여 목표 분류 및 목표 재구성을 수행하는 여러 가지 판별적 및 생성적 다중 모드 LLM을 개발하고 비교합니다. 우리의 실험 결과는 두 작업 모두에서 상당한 성공을 보여주며, LLM이 독자들의 텍스트별 목표에 대한 유용한 정보를 안구 운동으로부터 추출할 수 있음을 시사합니다.
English
When reading, we often have specific information that interests us in a text. For example, you might be reading this paper because you are curious about LLMs for eye movements in reading, the experimental design, or perhaps you only care about the question ``but does it work?''. More broadly, in daily life, people approach texts with any number of text-specific goals that guide their reading behavior. In this work, we ask, for the first time, whether open-ended reading goals can be automatically decoded from eye movements in reading. To address this question, we introduce goal classification and goal reconstruction tasks and evaluation frameworks, and use large-scale eye tracking for reading data in English with hundreds of text-specific information seeking tasks. We develop and compare several discriminative and generative multimodal LLMs that combine eye movements and text for goal classification and goal reconstruction. Our experiments show considerable success on both tasks, suggesting that LLMs can extract valuable information about the readers' text-specific goals from eye movements.

Summary

AI-Generated Summary

PDF142May 7, 2025