ChatPaper.aiChatPaper

Selectief Contrastief Leren voor Zwak Gesuperviseerde Affordance Grounding

Selective Contrastive Learning for Weakly Supervised Affordance Grounding

August 11, 2025
Auteurs: WonJun Moon, Hyun Seok Seong, Jae-Pil Heo
cs.AI

Samenvatting

Het faciliteren van de interactie van een entiteit met objecten vereist het nauwkeurig identificeren van onderdelen die specifieke acties mogelijk maken. Weakly supervised affordance grounding (WSAG) probeert het menselijk leren van derde-persoonsdemonstraties na te bootsen, waarbij mensen intuïtief functionele onderdelen begrijpen zonder pixelniveau annotaties nodig te hebben. Om dit te bereiken, wordt grounding doorgaans geleerd met behulp van een gedeelde classificator over afbeeldingen vanuit verschillende perspectieven, samen met distillatiestrategieën die het proces van onderdeelontdekking incorporeren. Omdat affordance-relevante onderdelen echter niet altijd gemakkelijk te onderscheiden zijn, vertrouwen modellen voornamelijk op classificatie, waarbij ze vaak focussen op algemene klasse-specifieke patronen die niet gerelateerd zijn aan affordance. Om deze beperking aan te pakken, gaan we verder dan geïsoleerd onderdeelniveau leren door selectieve prototypische en pixel contrastieve doelen te introduceren die adaptief affordance-relevante signalen leren op zowel het onderdeel- als het objectniveau, afhankelijk van de granulariteit van de beschikbare informatie. Eerst identificeren we de actie-geassocieerde objecten in zowel egocentrische (objectgerichte) als exocentrische (derde-persoonsvoorbeeld) afbeeldingen door gebruik te maken van CLIP. Vervolgens graven we door kruisverwijzing van de ontdekte objecten van complementaire perspectieven de precieze onderdeelniveau affordance-aanwijzingen in elk perspectief uit. Door consistent te leren om affordance-relevante regio's te onderscheiden van affordance-irrelevante achtergrondcontext, verschuift onze aanpak effectief de activering van irrelevante gebieden naar betekenisvolle affordance-signalen. Experimentele resultaten tonen de effectiviteit van onze methode aan. Codes zijn beschikbaar op github.com/hynnsk/SelectiveCL.
English
Facilitating an entity's interaction with objects requires accurately identifying parts that afford specific actions. Weakly supervised affordance grounding (WSAG) seeks to imitate human learning from third-person demonstrations, where humans intuitively grasp functional parts without needing pixel-level annotations. To achieve this, grounding is typically learned using a shared classifier across images from different perspectives, along with distillation strategies incorporating part discovery process. However, since affordance-relevant parts are not always easily distinguishable, models primarily rely on classification, often focusing on common class-specific patterns that are unrelated to affordance. To address this limitation, we move beyond isolated part-level learning by introducing selective prototypical and pixel contrastive objectives that adaptively learn affordance-relevant cues at both the part and object levels, depending on the granularity of the available information. Initially, we find the action-associated objects in both egocentric (object-focused) and exocentric (third-person example) images by leveraging CLIP. Then, by cross-referencing the discovered objects of complementary views, we excavate the precise part-level affordance clues in each perspective. By consistently learning to distinguish affordance-relevant regions from affordance-irrelevant background context, our approach effectively shifts activation from irrelevant areas toward meaningful affordance cues. Experimental results demonstrate the effectiveness of our method. Codes are available at github.com/hynnsk/SelectiveCL.
PDF123August 25, 2025