PartCraft: Criando Objetos Criativos por Partes
PartCraft: Crafting Creative Objects by Parts
July 5, 2024
Autores: Kam Woh Ng, Xiatian Zhu, Yi-Zhe Song, Tao Xiang
cs.AI
Resumo
Este artigo impulsiona o controle criativo em IA visual generativa ao permitir que os usuários "selecionem". Partindo de métodos tradicionais baseados em texto ou esboços, permitimos pela primeira vez que os usuários escolham conceitos visuais por partes para seus empreendimentos criativos. O resultado é uma geração detalhada que captura precisamente os conceitos visuais selecionados, garantindo um resultado fiel e plausível de forma holística. Para alcançar isso, primeiro dividimos objetos em partes por meio de agrupamento de características não supervisionado. Em seguida, codificamos as partes em tokens de texto e introduzimos uma perda de atenção normalizada baseada em entropia que opera sobre elas. Este design de perda permite que nosso modelo aprenda conhecimento genérico de topologia prévia sobre a composição das partes do objeto e generalize para composições de partes novas para garantir que a geração pareça holisticamente fiel. Por fim, empregamos um codificador de gargalo para projetar os tokens das partes. Isso não apenas aprimora a fidelidade, mas também acelera o aprendizado, aproveitando o conhecimento compartilhado e facilitando a troca de informações entre as instâncias. Os resultados visuais no artigo e no material suplementar mostram o poder convincente do PartCraft na criação de criações altamente personalizadas e inovadoras, exemplificadas pelos pássaros "encantadores" e criativos. O código está disponível em https://github.com/kamwoh/partcraft.
English
This paper propels creative control in generative visual AI by allowing users
to "select". Departing from traditional text or sketch-based methods, we for
the first time allow users to choose visual concepts by parts for their
creative endeavors. The outcome is fine-grained generation that precisely
captures selected visual concepts, ensuring a holistically faithful and
plausible result. To achieve this, we first parse objects into parts through
unsupervised feature clustering. Then, we encode parts into text tokens and
introduce an entropy-based normalized attention loss that operates on them.
This loss design enables our model to learn generic prior topology knowledge
about object's part composition, and further generalize to novel part
compositions to ensure the generation looks holistically faithful. Lastly, we
employ a bottleneck encoder to project the part tokens. This not only enhances
fidelity but also accelerates learning, by leveraging shared knowledge and
facilitating information exchange among instances. Visual results in the paper
and supplementary material showcase the compelling power of PartCraft in
crafting highly customized, innovative creations, exemplified by the "charming"
and creative birds. Code is released at https://github.com/kamwoh/partcraft.