Verbesserung der Detailerhaltung für die personalisierte Text-zu-Bild-Generierung: Ein regularisierungsfreier Ansatz
Enhancing Detail Preservation for Customized Text-to-Image Generation: A Regularization-Free Approach
May 23, 2023
Autoren: Yufan Zhou, Ruiyi Zhang, Tong Sun, Jinhui Xu
cs.AI
Zusammenfassung
Aktuelle Text-zu-Bild-Generierungsmodelle haben beeindruckende Fähigkeiten bei der Erstellung von textausgerichteten Bildern mit hoher Detailtreue gezeigt. Die Generierung von Bildern neuartiger Konzepte, die durch ein vom Benutzer bereitgestelltes Eingabebild vorgegeben werden, bleibt jedoch eine herausfordernde Aufgabe. Um dieses Problem zu lösen, erforschen Forscher verschiedene Methoden zur Anpassung vortrainierter Text-zu-Bild-Generierungsmodelle. Derzeit beinhalten die meisten bestehenden Methoden zur Anpassung vortrainierter Text-zu-Bild-Generierungsmodelle den Einsatz von Regularisierungstechniken, um Überanpassung zu verhindern. Während Regularisierung die Herausforderung der Anpassung erleichtert und eine erfolgreiche Inhaltserstellung in Bezug auf die Textführung ermöglicht, kann sie die Modellfähigkeiten einschränken, was zu einem Verlust detaillierter Informationen und einer geringeren Leistung führt. In dieser Arbeit schlagen wir ein neuartiges Framework für die angepasste Text-zu-Bild-Generierung ohne den Einsatz von Regularisierung vor. Konkret besteht unser vorgeschlagenes Framework aus einem Encoder-Netzwerk und einer neuartigen Sampling-Methode, die das Problem der Überanpassung ohne Regularisierung bewältigen kann. Mit dem vorgeschlagenen Framework können wir ein großes Text-zu-Bild-Generierungsmodell innerhalb einer halben Minute auf einer einzelnen GPU anpassen, wobei nur ein Bild vom Benutzer bereitgestellt wird. Wir zeigen in Experimenten, dass unser vorgeschlagenes Framework bestehende Methoden übertrifft und feinere Details besser bewahrt.
English
Recent text-to-image generation models have demonstrated impressive
capability of generating text-aligned images with high fidelity. However,
generating images of novel concept provided by the user input image is still a
challenging task. To address this problem, researchers have been exploring
various methods for customizing pre-trained text-to-image generation models.
Currently, most existing methods for customizing pre-trained text-to-image
generation models involve the use of regularization techniques to prevent
over-fitting. While regularization will ease the challenge of customization and
leads to successful content creation with respect to text guidance, it may
restrict the model capability, resulting in the loss of detailed information
and inferior performance. In this work, we propose a novel framework for
customized text-to-image generation without the use of regularization.
Specifically, our proposed framework consists of an encoder network and a novel
sampling method which can tackle the over-fitting problem without the use of
regularization. With the proposed framework, we are able to customize a
large-scale text-to-image generation model within half a minute on single GPU,
with only one image provided by the user. We demonstrate in experiments that
our proposed framework outperforms existing methods, and preserves more
fine-grained details.