ChatPaper.aiChatPaper

PHI-S: ラベルなしマルチティーチャー蒸留のための分布バランシング

PHI-S: Distribution Balancing for Label-Free Multi-Teacher Distillation

October 2, 2024
著者: Mike Ranzinger, Jon Barker, Greg Heinrich, Pavlo Molchanov, Bryan Catanzaro, Andrew Tao
cs.AI

要旨

さまざまなビジュアル基盤モデルには、独自の強みと弱みがあります。これらは、ラベルなしで異種の複数教師知識蒸留を通じて改善でき、これを「凝集モデル」と呼びます。本研究では、教師の活性化統計の影響、特に損失関数が生じる生徒モデルの品質に与える影響を調査します。さまざまな分布をより適切に整列させるために、標準的な統計正規化技術のツールキットを探求します。さらに、ダウンストリームの教師マッチング指標への影響を検討し、Hadamard行列の使用を促します。これらの行列を使用することで、各次元の多変量分布が同じ尺度を使用して標準化される等方性標準化が可能であることを示し、これを「PHI標準化」(PHI-S)と呼びます。さらに、本研究で検討された手法の中で最も優れた生徒モデルが生成されることを実証します。
English
Various visual foundation models have distinct strengths and weaknesses, both of which can be improved through heterogeneous multi-teacher knowledge distillation without labels, termed "agglomerative models." We build upon this body of work by studying the effect of the teachers' activation statistics, particularly the impact of the loss function on the resulting student model quality. We explore a standard toolkit of statistical normalization techniques to better align the different distributions and assess their effects. Further, we examine the impact on downstream teacher-matching metrics, which motivates the use of Hadamard matrices. With these matrices, we demonstrate useful properties, showing how they can be used for isotropic standardization, where each dimension of a multivariate distribution is standardized using the same scale. We call this technique "PHI Standardization" (PHI-S) and empirically demonstrate that it produces the best student model across the suite of methods studied.

Summary

AI-Generated Summary

PDF364November 16, 2024