ChatPaper.aiChatPaper

視覚的個人化チューリングテスト

Visual Personalization Turing Test

January 30, 2026
著者: Rameen Abdal, James Burgess, Sergey Tulyakov, Kuan-Chieh Jackson Wang
cs.AI

要旨

我々は、視覚的コンテキストに基づくパーソナライゼーションを評価する新しい枠組みとして、Visual Personalization Turing Test(VPTT)を提案する。VPTTは、同一性の複製ではなく、知覚的な識別不可能性に基づいて評価を行う。ある人物が作成または共有する可能性が高いコンテンツと、モデルが生成した出力(画像、動画、3Dアセット等)とが、人間または較正済みVLM評価者によって識別不能である場合、そのモデルはVPTTを通過したとみなされる。VPTTを実践的に運用するため、1万人分の人物ベンチマーク(VPTT-Bench)、視覚的検索拡張生成器(VPRAG)、そして人間とVLMの判定に較正されたテキストのみの評価指標であるVPTTスコアを統合したVPTTフレームワークを構築した。人間評価、VLM評価、VPTT評価の間に高い相関が確認され、VPTTスコアが信頼性の高い知覚的代理指標として有効であることが検証された。実験の結果、VPRAGはパーソナライゼーションの忠実度と独創性の最適なバランスを達成し、拡張性が高くプライバシー保護的なパーソナライズド生成AIの基盤を提供することが実証された。
English
We introduce the Visual Personalization Turing Test (VPTT), a new paradigm for evaluating contextual visual personalization based on perceptual indistinguishability, rather than identity replication. A model passes the VPTT if its output (image, video, 3D asset, etc.) is indistinguishable to a human or calibrated VLM judge from content a given person might plausibly create or share. To operationalize VPTT, we present the VPTT Framework, integrating a 10k-persona benchmark (VPTT-Bench), a visual retrieval-augmented generator (VPRAG), and the VPTT Score, a text-only metric calibrated against human and VLM judgments. We show high correlation across human, VLM, and VPTT evaluations, validating the VPTT Score as a reliable perceptual proxy. Experiments demonstrate that VPRAG achieves the best alignment-originality balance, offering a scalable and privacy-safe foundation for personalized generative AI.
PDF22February 3, 2026