ChatPaper.aiChatPaper

一貫性モデルの不一致:より良いODE解法がより良いサンプルを意味するわけではない

Inconsistencies In Consistency Models: Better ODE Solving Does Not Imply Better Samples

November 13, 2024
著者: Noël Vouitsis, Rasa Hosseinzadeh, Brendan Leigh Ross, Valentin Villecroze, Satya Krishna Gorti, Jesse C. Cresswell, Gabriel Loaiza-Ganem
cs.AI

要旨

拡散モデルは非常に高品質なサンプルを生成できますが、その高価な反復サンプリング手法によって本質的にボトルネックが生じます。一方、コンシステンシーモデル(CM)は、最近注目されている拡散モデル蒸留手法であり、高忠実度のサンプルをわずか数回の反復で生成することでサンプリングコストを削減します。コンシステンシーモデル蒸留は、既存の拡散モデルによって定義される確率流れ常微分方程式(ODE)を解決することを目指しています。CMはODEソルバーに対する誤差を最小化するよう直接トレーニングされるのではなく、より計算上扱いやすい目的を使用します。CMが確率流れODEをどのように効果的に解決し、誘発される誤差が生成されたサンプルの品質に与える影響を調査するために、この誤差を直接最小化するDirect CMを導入します。興味深いことに、Direct CMは、CMに比べてODE解決の誤差を減少させますが、生成されるサンプルの品質が著しく悪化する結果となります。このことから、なぜCMが初めからうまく機能するのかという点が問われます。完全なコードは以下で入手可能です:https://github.com/layer6ai-labs/direct-cms.
English
Although diffusion models can generate remarkably high-quality samples, they are intrinsically bottlenecked by their expensive iterative sampling procedure. Consistency models (CMs) have recently emerged as a promising diffusion model distillation method, reducing the cost of sampling by generating high-fidelity samples in just a few iterations. Consistency model distillation aims to solve the probability flow ordinary differential equation (ODE) defined by an existing diffusion model. CMs are not directly trained to minimize error against an ODE solver, rather they use a more computationally tractable objective. As a way to study how effectively CMs solve the probability flow ODE, and the effect that any induced error has on the quality of generated samples, we introduce Direct CMs, which directly minimize this error. Intriguingly, we find that Direct CMs reduce the ODE solving error compared to CMs but also result in significantly worse sample quality, calling into question why exactly CMs work well in the first place. Full code is available at: https://github.com/layer6ai-labs/direct-cms.

Summary

AI-Generated Summary

PDF92November 15, 2024