AutoMIA: Verbeterde uitgangspunten voor lidmaatschapsinferentieaanvallen via agentische zelfverkenning
AutoMIA: Improved Baselines for Membership Inference Attack via Agentic Self-Exploration
April 1, 2026
Auteurs: Ruhao Liu, Weiqi Huang, Qi Li, Xinchao Wang
cs.AI
Samenvatting
Membership Inference Attacks (MIA's) vormen een fundamenteel auditinstrument voor het evalueren van lekken van trainingsgegevens in machine learning-modellen. Bestaande methodologieën zijn echter voornamelijk gebaseerd op statische, handmatig gemaakte heuristieken die aanpasbaarheid missen, wat vaak leidt tot suboptimale prestaties bij overdracht tussen verschillende grote modellen. In dit werk stellen we AutoMIA voor, een agent-gebaseerd raamwerk dat membership inference herformuleert als een geautomatiseerd proces van zelfexploratie en strategie-evolutie. Op basis van hoogwaardige scenariospecificaties verkent AutoMIA zelf de aanvalsruimte door uitvoerbare logits-niveau strategieën te genereren en deze progressief te verfijnen via gesloten-lus evaluatiefeedback. Door abstracte strategieredenering te ontkoppelen van laagwaardige uitvoering, stelt ons raamwerk een systematische, model-agnostische verkenning van de zoekruimte voor aanvallen in staat. Uitgebreide experimenten tonen aan dat AutoMIA consistent even goed presteert of beter presteert dan state-of-the-art referentiemethoden, terwijl de noodzaak voor handmatige feature engineering wordt geëlimineerd.
English
Membership Inference Attacks (MIAs) serve as a fundamental auditing tool for evaluating training data leakage in machine learning models. However, existing methodologies predominantly rely on static, handcrafted heuristics that lack adaptability, often leading to suboptimal performance when transferred across different large models. In this work, we propose AutoMIA, an agentic framework that reformulates membership inference as an automated process of self-exploration and strategy evolution. Given high-level scenario specifications, AutoMIA self-explores the attack space by generating executable logits-level strategies and progressively refining them through closed-loop evaluation feedback. By decoupling abstract strategy reasoning from low-level execution, our framework enables a systematic, model-agnostic traversal of the attack search space. Extensive experiments demonstrate that AutoMIA consistently matches or outperforms state-of-the-art baselines while eliminating the need for manual feature engineering.