ChatPaper.aiChatPaper

Stylebreeder: Het verkennen en democratiseren van artistieke stijlen via tekst-naar-beeldmodellen

Stylebreeder: Exploring and Democratizing Artistic Styles through Text-to-Image Models

June 20, 2024
Auteurs: Matthew Zheng, Enis Simsar, Hidir Yesiltepe, Federico Tombari, Joel Simon, Pinar Yanardag
cs.AI

Samenvatting

Text-to-image-modellen worden steeds populairder en revolutioneren het landschap van digitale kunstcreatie door het mogelijk te maken van zeer gedetailleerde en creatieve visuele inhoud. Deze modellen worden op grote schaal ingezet in verschillende domeinen, met name in kunstgeneratie, waar ze een breed spectrum aan creatieve expressie faciliteren en de toegang tot artistieke creatie democratiseren. In dit artikel introduceren we STYLEBREEDER, een uitgebreide dataset van 6,8 miljoen afbeeldingen en 1,8 miljoen prompts gegenereerd door 95.000 gebruikers op Artbreeder, een platform dat is uitgegroeid tot een belangrijk centrum voor creatieve verkenning met meer dan 13 miljoen gebruikers. We introduceren een reeks taken met deze dataset die gericht zijn op het identificeren van diverse artistieke stijlen, het genereren van gepersonaliseerde inhoud en het aanbevelen van stijlen op basis van gebruikersinteresses. Door unieke, door gebruikers gegenereerde stijlen te documenteren die conventionele categorieën zoals 'cyberpunk' of 'Picasso' overstijgen, onderzoeken we het potentieel voor unieke, door de menigte gegenereerde stijlen die diepgaande inzichten kunnen bieden in het collectieve creatieve bewustzijn van gebruikers wereldwijd. We evalueren ook verschillende personalisatiemethoden om artistieke expressie te versterken en introduceren een stijlatlas, waarbij deze modellen beschikbaar worden gesteld in LoRA-formaat voor publiek gebruik. Ons onderzoek toont het potentieel aan van text-to-image-diffusiemodellen om unieke artistieke expressies te ontdekken en te bevorderen, waardoor AI in de kunst verder wordt gedemocratiseerd en een meer diverse en inclusieve artistieke gemeenschap wordt bevorderd. De dataset, code en modellen zijn beschikbaar op https://stylebreeder.github.io onder een Public Domain (CC0)-licentie.
English
Text-to-image models are becoming increasingly popular, revolutionizing the landscape of digital art creation by enabling highly detailed and creative visual content generation. These models have been widely employed across various domains, particularly in art generation, where they facilitate a broad spectrum of creative expression and democratize access to artistic creation. In this paper, we introduce STYLEBREEDER, a comprehensive dataset of 6.8M images and 1.8M prompts generated by 95K users on Artbreeder, a platform that has emerged as a significant hub for creative exploration with over 13M users. We introduce a series of tasks with this dataset aimed at identifying diverse artistic styles, generating personalized content, and recommending styles based on user interests. By documenting unique, user-generated styles that transcend conventional categories like 'cyberpunk' or 'Picasso,' we explore the potential for unique, crowd-sourced styles that could provide deep insights into the collective creative psyche of users worldwide. We also evaluate different personalization methods to enhance artistic expression and introduce a style atlas, making these models available in LoRA format for public use. Our research demonstrates the potential of text-to-image diffusion models to uncover and promote unique artistic expressions, further democratizing AI in art and fostering a more diverse and inclusive artistic community. The dataset, code and models are available at https://stylebreeder.github.io under a Public Domain (CC0) license.
PDF172November 29, 2024