ChatPaper.aiChatPaper

Comprensión de las capacidades de la IA generativa en tareas cotidianas de edición de imágenes

Understanding Generative AI Capabilities in Everyday Image Editing Tasks

May 22, 2025
Autores: Mohammad Reza Taesiri, Brandon Collins, Logan Bolton, Viet Dac Lai, Franck Dernoncourt, Trung Bui, Anh Totti Nguyen
cs.AI

Resumen

La IA generativa (GenAI) tiene un gran potencial para automatizar tareas cotidianas de edición de imágenes, especialmente tras el reciente lanzamiento de GPT-4o el 25 de marzo de 2025. Sin embargo, ¿qué temas son los que la gente más desea editar? ¿Qué tipos de acciones de edición quieren realizar (por ejemplo, eliminar o estilizar el sujeto)? ¿Prefieren las personas ediciones precisas con resultados predecibles o altamente creativas? Al comprender las características de las solicitudes del mundo real y las ediciones correspondientes realizadas por expertos freelance en edición fotográfica, ¿podemos extraer lecciones para mejorar los editores basados en IA y determinar qué tipos de solicitudes pueden ser manejadas con éxito actualmente por los editores de IA? En este artículo, presentamos un estudio único que aborda estas preguntas mediante el análisis de 83k solicitudes de los últimos 12 años (2013-2025) en la comunidad de Reddit, que recopiló 305k ediciones realizadas por expertos en PSR. Según las valoraciones humanas, aproximadamente solo el 33% de las solicitudes pueden ser cumplidas por los mejores editores de IA (incluyendo GPT-4o, Gemini-2.0-Flash, SeedEdit). Curiosamente, los editores de IA tienen un peor desempeño en solicitudes de baja creatividad que requieren ediciones precisas que en tareas más abiertas. A menudo tienen dificultades para preservar la identidad de personas y animales, y con frecuencia realizan retoques no solicitados. Por otro lado, los jueces VLM (por ejemplo, o1) se comportan de manera diferente a los jueces humanos y pueden preferir las ediciones de IA más que las humanas. El código y ejemplos cualitativos están disponibles en: https://psrdataset.github.io
English
Generative AI (GenAI) holds significant promise for automating everyday image editing tasks, especially following the recent release of GPT-4o on March 25, 2025. However, what subjects do people most often want edited? What kinds of editing actions do they want to perform (e.g., removing or stylizing the subject)? Do people prefer precise edits with predictable outcomes or highly creative ones? By understanding the characteristics of real-world requests and the corresponding edits made by freelance photo-editing wizards, can we draw lessons for improving AI-based editors and determine which types of requests can currently be handled successfully by AI editors? In this paper, we present a unique study addressing these questions by analyzing 83k requests from the past 12 years (2013-2025) on the Reddit community, which collected 305k PSR-wizard edits. According to human ratings, approximately only 33% of requests can be fulfilled by the best AI editors (including GPT-4o, Gemini-2.0-Flash, SeedEdit). Interestingly, AI editors perform worse on low-creativity requests that require precise editing than on more open-ended tasks. They often struggle to preserve the identity of people and animals, and frequently make non-requested touch-ups. On the other side of the table, VLM judges (e.g., o1) perform differently from human judges and may prefer AI edits more than human edits. Code and qualitative examples are available at: https://psrdataset.github.io

Summary

AI-Generated Summary

PDF202May 23, 2025