ChatPaper.aiChatPaper

Verständnis der Fähigkeiten generativer KI in alltäglichen Bildbearbeitungsaufgaben

Understanding Generative AI Capabilities in Everyday Image Editing Tasks

May 22, 2025
Autoren: Mohammad Reza Taesiri, Brandon Collins, Logan Bolton, Viet Dac Lai, Franck Dernoncourt, Trung Bui, Anh Totti Nguyen
cs.AI

Zusammenfassung

Generative KI (GenAI) birgt erhebliches Potenzial für die Automatisierung alltäglicher Bildbearbeitungsaufgaben, insbesondere nach der jüngsten Veröffentlichung von GPT-4o am 25. März 2025. Doch welche Motive möchten die Menschen am häufigsten bearbeiten lassen? Welche Arten von Bearbeitungsaktionen wünschen sie sich (z. B. Entfernen oder Stilisieren des Motivs)? Bevorzugen die Menschen präzise Bearbeitungen mit vorhersehbaren Ergebnissen oder hochkreative? Indem wir die Merkmale realer Bearbeitungsanfragen und die entsprechenden Bearbeitungen durch freiberufliche Foto-Bearbeitungsexperten verstehen, können wir Erkenntnisse für die Verbesserung KI-basierter Bearbeitungswerkzeuge gewinnen und bestimmen, welche Arten von Anfragen derzeit erfolgreich durch KI-Bearbeitungswerkzeuge bewältigt werden können? In diesem Artikel präsentieren wir eine einzigartige Studie, die diese Fragen untersucht, indem sie 83.000 Anfragen aus den letzten 12 Jahren (2013–2025) in der Reddit-Community analysiert, die 305.000 PSR-Expertenbearbeitungen gesammelt hat. Laut menschlicher Bewertungen können nur etwa 33 % der Anfragen durch die besten KI-Bearbeitungswerkzeuge (einschließlich GPT-4o, Gemini-2.0-Flash, SeedEdit) erfüllt werden. Interessanterweise schneiden KI-Bearbeitungswerkzeuge bei Anfragen mit geringer Kreativität, die präzise Bearbeitungen erfordern, schlechter ab als bei offeneren Aufgaben. Sie haben oft Schwierigkeiten, die Identität von Personen und Tieren zu bewahren und führen häufig unerwünschte Nachbesserungen durch. Auf der anderen Seite bewerten VLM-Gutachter (z. B. o1) anders als menschliche Gutachter und bevorzugen möglicherweise KI-Bearbeitungen stärker als menschliche. Code und qualitative Beispiele sind verfügbar unter: https://psrdataset.github.io
English
Generative AI (GenAI) holds significant promise for automating everyday image editing tasks, especially following the recent release of GPT-4o on March 25, 2025. However, what subjects do people most often want edited? What kinds of editing actions do they want to perform (e.g., removing or stylizing the subject)? Do people prefer precise edits with predictable outcomes or highly creative ones? By understanding the characteristics of real-world requests and the corresponding edits made by freelance photo-editing wizards, can we draw lessons for improving AI-based editors and determine which types of requests can currently be handled successfully by AI editors? In this paper, we present a unique study addressing these questions by analyzing 83k requests from the past 12 years (2013-2025) on the Reddit community, which collected 305k PSR-wizard edits. According to human ratings, approximately only 33% of requests can be fulfilled by the best AI editors (including GPT-4o, Gemini-2.0-Flash, SeedEdit). Interestingly, AI editors perform worse on low-creativity requests that require precise editing than on more open-ended tasks. They often struggle to preserve the identity of people and animals, and frequently make non-requested touch-ups. On the other side of the table, VLM judges (e.g., o1) perform differently from human judges and may prefer AI edits more than human edits. Code and qualitative examples are available at: https://psrdataset.github.io

Summary

AI-Generated Summary

PDF202May 23, 2025