ChatPaper.aiChatPaper

gen2seg: 生成モデルによる汎用的なインスタンスセグメンテーションの実現

gen2seg: Generative Models Enable Generalizable Instance Segmentation

May 21, 2025
著者: Om Khangaonkar, Hamed Pirsiavash
cs.AI

要旨

摂動入力を基に一貫性のある画像を合成するために事前学習を行うことで、生成モデルは物体の境界やシーンの構成を本質的に理解する能力を獲得します。この生成表現を汎用的な知覚的組織化にどのように再利用できるでしょうか?私たちは、Stable DiffusionとMAE(エンコーダ+デコーダ)を、特定のオブジェクトタイプ(室内家具と車)に限定してインスタンスカラーリング損失を用いてカテゴリに依存しないインスタンスセグメンテーションにファインチューニングしました。驚くべきことに、私たちのモデルは強力なゼロショット汎化能力を示し、ファインチューニング(および多くの場合、MAEのImageNet-1K事前学習)で見られなかったタイプやスタイルのオブジェクトを正確にセグメント化しました。最良のパフォーマンスを発揮するモデルは、未見のオブジェクトタイプやスタイルの評価において、強力な教師あり学習を施したSAMに非常に近い結果を示し、微細な構造や曖昧な境界のセグメンテーションにおいてはそれを上回りました。これに対して、既存のプロンプト可能なセグメンテーションアーキテクチャや識別的に事前学習されたモデルは汎化に失敗しました。これは、生成モデルがカテゴリやドメインを超えて転移可能な本質的なグループ化メカニズムを学習することを示唆しています。コード、事前学習済みモデル、デモは私たちのウェブサイトで公開されています。
English
By pretraining to synthesize coherent images from perturbed inputs, generative models inherently learn to understand object boundaries and scene compositions. How can we repurpose these generative representations for general-purpose perceptual organization? We finetune Stable Diffusion and MAE (encoder+decoder) for category-agnostic instance segmentation using our instance coloring loss exclusively on a narrow set of object types (indoor furnishings and cars). Surprisingly, our models exhibit strong zero-shot generalization, accurately segmenting objects of types and styles unseen in finetuning (and in many cases, MAE's ImageNet-1K pretraining too). Our best-performing models closely approach the heavily supervised SAM when evaluated on unseen object types and styles, and outperform it when segmenting fine structures and ambiguous boundaries. In contrast, existing promptable segmentation architectures or discriminatively pretrained models fail to generalize. This suggests that generative models learn an inherent grouping mechanism that transfers across categories and domains, even without internet-scale pretraining. Code, pretrained models, and demos are available on our website.

Summary

AI-Generated Summary

PDF12May 23, 2025