パーソナライズされた状況的認知とVLMアシスタントの整合
Aligning VLM Assistants with Personalized Situated Cognition
June 1, 2025
著者: Yongqi Li, Shen Zhou, Xiaohu Li, Xin Miao, Jintao Wen, Mayi Xu, Jianhao Chen, Birong Pan, Hankun Kang, Yuanyuan Zhu, Ming Zhong, Tieyun Qian
cs.AI
要旨
人間の一般的な目的(無害性や幻覚のないことなど)に沿った視覚言語モデル(VLM)は、視覚タスクを管理する上で人間の貴重なアシスタントとなっています。しかし、多様な背景を持つ人々は、同じ状況でも異なる認知を持っています。その結果、彼らはVLMアシスタントに対して個別化された期待を持つ可能性があります。これは、現実世界での支援のために、VLMアシスタントを個別化された状況認知に合わせる必要性を強調しています。この問題を研究するために、まず、社会学的概念である「役割集合(Role-Set)」に基づいて個人を特徴付けることで問題を簡素化します。次に、個別化された整合性が達成されているかどうかを確認するために、個人の行動を評価することを提案します。さらに、18,000のインスタンスと20の異なる役割集合を持つ個人を含むベンチマーク「PCogAlignBench」を構築します。最後に、個別化された整合性のための認知認識型かつ行動ベースの報酬モデルを構築するフレームワーク「PCogAlign」を提示します。実験結果と人間による評価は、PCogAlignBenchの信頼性と提案されたPCogAlignの有効性を示しています。構築したベンチマークとコードはhttps://github.com/NLPGM/PCogAlignでオープンソースとして公開します。
English
Vision-language models (VLMs) aligned with general human objectives, such as
being harmless and hallucination-free, have become valuable assistants of
humans in managing visual tasks. However, people with diversified backgrounds
have different cognition even in the same situation. Consequently, they may
have personalized expectations for VLM assistants. This highlights the urgent
need to align VLM assistants with personalized situated cognition for
real-world assistance. To study this problem, we first simplify it by
characterizing individuals based on the sociological concept of Role-Set. Then,
we propose to evaluate the individuals' actions to examine whether the
personalized alignment is achieved. Further, we construct a benchmark named
PCogAlignBench, which includes 18k instances and 20 individuals with different
Role-Sets. Finally, we present a framework called PCogAlign, which constructs a
cognition-aware and action-based reward model for personalized alignment.
Experimental results and human evaluations demonstrate the reliability of the
PCogAlignBench and the effectiveness of our proposed PCogAlign. We will
open-source the constructed benchmark and code at
https://github.com/NLPGM/PCogAlign.