ChatPaper.aiChatPaper

ReSWD: ReSTIR'd、揺るぎなし。分散低減のためのリザーバーサンプリングとスライスド・ワッサースタイン距離の統合

ReSWD: ReSTIR'd, not shaken. Combining Reservoir Sampling and Sliced Wasserstein Distance for Variance Reduction

October 1, 2025
著者: Mark Boss, Andreas Engelhardt, Simon Donné, Varun Jampani
cs.AI

要旨

分布マッチングは多くの視覚およびグラフィックスタスクにおいて中心的な役割を果たすが、高次元分布に対して広く用いられるワッサースタイン距離は計算コストが高すぎる。スライスドワッサースタイン距離(SWD)はスケーラブルな代替手段を提供するが、そのモンテカルロ推定器は高い分散に悩まされ、ノイズの多い勾配と遅い収束を引き起こす。本研究では、重み付きリザーバーサンプリングをSWDに統合したReservoir SWD(ReSWD)を提案する。これにより、最適化ステップにおいて情報量の多い射影方向を適応的に保持し、偏りのないまま安定した勾配を得ることができる。合成ベンチマークおよび色補正や拡散ガイダンスなどの実世界タスクにおける実験により、ReSWDが標準的なSWDや他の分散低減ベースラインを一貫して上回ることを示す。プロジェクトページ: https://reservoirswd.github.io/
English
Distribution matching is central to many vision and graphics tasks, where the widely used Wasserstein distance is too costly to compute for high dimensional distributions. The Sliced Wasserstein Distance (SWD) offers a scalable alternative, yet its Monte Carlo estimator suffers from high variance, resulting in noisy gradients and slow convergence. We introduce Reservoir SWD (ReSWD), which integrates Weighted Reservoir Sampling into SWD to adaptively retain informative projection directions in optimization steps, resulting in stable gradients while remaining unbiased. Experiments on synthetic benchmarks and real-world tasks such as color correction and diffusion guidance show that ReSWD consistently outperforms standard SWD and other variance reduction baselines. Project page: https://reservoirswd.github.io/
PDF22October 2, 2025