拡散モデルを用いた画像間補間
Interpolating between Images with Diffusion Models
July 24, 2023
著者: Clinton J. Wang, Polina Golland
cs.AI
要旨
画像生成と編集における未開拓のフロンティアの一つは、2つの入力画像間の補間タスクであり、これは現在展開されているすべての画像生成パイプラインに欠けている機能です。私たちは、このような機能がモデルの創造的な応用を拡大できると主張し、潜在拡散モデルを用いたゼロショット補間の方法を提案します。補間を一連の減少するノイズレベルで潜在空間に適用し、その後、テキスト反転と(オプションで)被写体のポーズから導出された補間テキスト埋め込みに基づいてノイズ除去を行います。より一貫性を高めるため、または追加の基準を指定するために、複数の候補を生成し、CLIPを使用して最高品質の画像を選択することができます。私たちは、多様な被写体のポーズ、画像スタイル、および画像内容にわたって説得力のある補間を実現し、FIDなどの標準的な定量的メトリクスが補間の品質を測定するには不十分であることを示します。コードとデータはhttps://clintonjwang.github.io/interpolationで入手可能です。
English
One little-explored frontier of image generation and editing is the task of
interpolating between two input images, a feature missing from all currently
deployed image generation pipelines. We argue that such a feature can expand
the creative applications of such models, and propose a method for zero-shot
interpolation using latent diffusion models. We apply interpolation in the
latent space at a sequence of decreasing noise levels, then perform denoising
conditioned on interpolated text embeddings derived from textual inversion and
(optionally) subject poses. For greater consistency, or to specify additional
criteria, we can generate several candidates and use CLIP to select the highest
quality image. We obtain convincing interpolations across diverse subject
poses, image styles, and image content, and show that standard quantitative
metrics such as FID are insufficient to measure the quality of an
interpolation. Code and data are available at
https://clintonjwang.github.io/interpolation.