ChatPaper.aiChatPaper

¿Cuántos Van Goghs se necesitan para Van Goghear? Encontrando el Umbral de Imitación

How Many Van Goghs Does It Take to Van Gogh? Finding the Imitation Threshold

October 19, 2024
Autores: Sahil Verma, Royi Rassin, Arnav Das, Gantavya Bhatt, Preethi Seshadri, Chirag Shah, Jeff Bilmes, Hannaneh Hajishirzi, Yanai Elazar
cs.AI

Resumen

Los modelos de texto a imagen se entrenan utilizando grandes conjuntos de datos recopilados mediante la extracción de pares de imágenes y texto de internet. Estos conjuntos de datos a menudo incluyen material privado, con derechos de autor y con licencia. Entrenar modelos con tales conjuntos de datos les permite generar imágenes con dicho contenido, lo que podría violar las leyes de copyright y la privacidad individual. Este fenómeno se denomina imitación: la generación de imágenes con contenido que tiene una similitud reconocible con sus imágenes de entrenamiento. En este trabajo estudiamos la relación entre la frecuencia de un concepto en el conjunto de datos de entrenamiento y la capacidad de un modelo para imitarlo. Buscamos determinar el punto en el que un modelo fue entrenado con suficientes instancias para imitar un concepto: el umbral de imitación. Planteamos esta cuestión como un nuevo problema: Encontrar el Umbral de Imitación (FIT) y proponemos un enfoque eficiente que estima el umbral de imitación sin incurrir en el enorme costo de entrenar múltiples modelos desde cero. Experimentamos con dos dominios: rostros humanos y estilos artísticos, para los cuales creamos cuatro conjuntos de datos, y evaluamos tres modelos de texto a imagen que fueron entrenados en dos conjuntos de datos de preentrenamiento. Nuestros resultados revelan que el umbral de imitación de estos modelos se encuentra en el rango de 200-600 imágenes, dependiendo del dominio y del modelo. El umbral de imitación puede proporcionar una base empírica para reclamos de violación de copyright y actúa como un principio rector para los desarrolladores de modelos de texto a imagen que buscan cumplir con las leyes de copyright y privacidad. Publicamos el código y los datos en https://github.com/vsahil/MIMETIC-2.git y el sitio web del proyecto está alojado en https://how-many-van-goghs-does-it-take.github.io.
English
Text-to-image models are trained using large datasets collected by scraping image-text pairs from the internet. These datasets often include private, copyrighted, and licensed material. Training models on such datasets enables them to generate images with such content, which might violate copyright laws and individual privacy. This phenomenon is termed imitation -- generation of images with content that has recognizable similarity to its training images. In this work we study the relationship between a concept's frequency in the training dataset and the ability of a model to imitate it. We seek to determine the point at which a model was trained on enough instances to imitate a concept -- the imitation threshold. We posit this question as a new problem: Finding the Imitation Threshold (FIT) and propose an efficient approach that estimates the imitation threshold without incurring the colossal cost of training multiple models from scratch. We experiment with two domains -- human faces and art styles -- for which we create four datasets, and evaluate three text-to-image models which were trained on two pretraining datasets. Our results reveal that the imitation threshold of these models is in the range of 200-600 images, depending on the domain and the model. The imitation threshold can provide an empirical basis for copyright violation claims and acts as a guiding principle for text-to-image model developers that aim to comply with copyright and privacy laws. We release the code and data at https://github.com/vsahil/MIMETIC-2.git and the project's website is hosted at https://how-many-van-goghs-does-it-take.github.io.

Summary

AI-Generated Summary

PDF63November 16, 2024