ChatPaper.aiChatPaper

日常的な画像編集タスクにおける生成AIの能力の理解

Understanding Generative AI Capabilities in Everyday Image Editing Tasks

May 22, 2025
著者: Mohammad Reza Taesiri, Brandon Collins, Logan Bolton, Viet Dac Lai, Franck Dernoncourt, Trung Bui, Anh Totti Nguyen
cs.AI

要旨

生成AI(GenAI)は、特に2025年3月25日にリリースされたGPT-4o以降、日常的な画像編集タスクの自動化において大きな可能性を秘めています。しかし、人々が最も頻繁に編集を望む対象は何でしょうか?また、どのような編集操作(例えば、被写体の削除やスタイライズ)を行いたいのでしょうか?人々は、予測可能な結果をもたらす精密な編集を好むのでしょうか、それとも非常に創造的な編集を好むのでしょうか?現実世界のリクエストの特性と、フリーランスの写真編集の達人たちが行った対応する編集を理解することで、AIベースのエディタを改善するための教訓を引き出し、現在のAIエディタがどのようなリクエストを成功裏に処理できるかを判断できるでしょうか?本論文では、これらの疑問に答えるために、過去12年間(2013年から2025年)のRedditコミュニティからの83,000件のリクエストと、それに対応する305,000件のPSR-wizard編集を分析する独自の研究を紹介します。人間による評価によると、最高のAIエディタ(GPT-4o、Gemini-2.0-Flash、SeedEditを含む)でも、リクエストの約33%しか満たすことができません。興味深いことに、AIエディタは、精密な編集を必要とする低創造性のリクエストに対して、よりオープンエンドなタスクよりもパフォーマンスが劣ります。彼らはしばしば人や動物のアイデンティティを保持するのに苦労し、リクエストされていない修正を頻繁に行います。一方、VLMジャッジ(例:o1)は人間のジャッジとは異なる行動を取り、人間の編集よりもAIの編集を好む傾向があります。コードと質的例は以下で利用可能です:https://psrdataset.github.io
English
Generative AI (GenAI) holds significant promise for automating everyday image editing tasks, especially following the recent release of GPT-4o on March 25, 2025. However, what subjects do people most often want edited? What kinds of editing actions do they want to perform (e.g., removing or stylizing the subject)? Do people prefer precise edits with predictable outcomes or highly creative ones? By understanding the characteristics of real-world requests and the corresponding edits made by freelance photo-editing wizards, can we draw lessons for improving AI-based editors and determine which types of requests can currently be handled successfully by AI editors? In this paper, we present a unique study addressing these questions by analyzing 83k requests from the past 12 years (2013-2025) on the Reddit community, which collected 305k PSR-wizard edits. According to human ratings, approximately only 33% of requests can be fulfilled by the best AI editors (including GPT-4o, Gemini-2.0-Flash, SeedEdit). Interestingly, AI editors perform worse on low-creativity requests that require precise editing than on more open-ended tasks. They often struggle to preserve the identity of people and animals, and frequently make non-requested touch-ups. On the other side of the table, VLM judges (e.g., o1) perform differently from human judges and may prefer AI edits more than human edits. Code and qualitative examples are available at: https://psrdataset.github.io

Summary

AI-Generated Summary

PDF202May 23, 2025