ChatPaper.aiChatPaper

ReSWD: ReSTIR'd, 흔들리지 않음. 분산 감소를 위한 저수지 샘플링과 슬라이스드 바서슈타인 거리의 결합

ReSWD: ReSTIR'd, not shaken. Combining Reservoir Sampling and Sliced Wasserstein Distance for Variance Reduction

October 1, 2025
저자: Mark Boss, Andreas Engelhardt, Simon Donné, Varun Jampani
cs.AI

초록

분포 매칭은 많은 비전 및 그래픽 작업에서 핵심적인 역할을 하며, 고차원 분포에 대해 널리 사용되는 Wasserstein 거리는 계산 비용이 너무 높다는 문제가 있습니다. Sliced Wasserstein Distance(SWD)는 확장 가능한 대안을 제공하지만, 몬테카를로 추정기는 높은 분산을 보여 노이즈가 많은 그래디언트와 느린 수렴 속도를 초래합니다. 우리는 Weighted Reservoir Sampling을 SWD에 통합한 Reservoir SWD(ReSWD)를 소개합니다. ReSWD는 최적화 단계에서 정보가 풍부한 투영 방향을 적응적으로 유지하여 안정적인 그래디언트를 제공하면서도 편향되지 않은 상태를 유지합니다. 합성 벤치마크와 색 보정, 확산 가이던스와 같은 실제 작업에 대한 실험에서 ReSWD는 표준 SWD 및 기타 분산 감소 기준선을 지속적으로 능가하는 성능을 보여줍니다. 프로젝트 페이지: https://reservoirswd.github.io/
English
Distribution matching is central to many vision and graphics tasks, where the widely used Wasserstein distance is too costly to compute for high dimensional distributions. The Sliced Wasserstein Distance (SWD) offers a scalable alternative, yet its Monte Carlo estimator suffers from high variance, resulting in noisy gradients and slow convergence. We introduce Reservoir SWD (ReSWD), which integrates Weighted Reservoir Sampling into SWD to adaptively retain informative projection directions in optimization steps, resulting in stable gradients while remaining unbiased. Experiments on synthetic benchmarks and real-world tasks such as color correction and diffusion guidance show that ReSWD consistently outperforms standard SWD and other variance reduction baselines. Project page: https://reservoirswd.github.io/
PDF22October 2, 2025