ChatPaper.aiChatPaper

条件数からの視点に基づくモデル免疫化

Model Immunization from a Condition Number Perspective

May 29, 2025
著者: Amber Yijia Zheng, Cedar Site Bai, Brian Bullins, Raymond A. Yeh
cs.AI

要旨

モデル免疫化は、有害なタスクに対しては微調整が困難でありながら、他の非有害なタスクではその有用性を保持するようにモデルを事前学習することを目的としています。これまでの研究では、テキストから画像へのモデルを免疫化するための経験的証拠が示されていますが、免疫化が可能となる条件や免疫化されたモデルの正確な定義については未だ明確ではありません。本研究では、ヘッセ行列の条件数に基づくフレームワークを提案し、線形モデルに対するモデル免疫化を分析します。このフレームワークを基に、事前学習後の条件数を制御するための正則化項を備えたアルゴリズムを設計します。線形モデルおよび非線形ディープネットにおける実験結果は、提案アルゴリズムのモデル免疫化における有効性を示しています。コードはhttps://github.com/amberyzheng/model-immunization-cond-numで公開されています。
English
Model immunization aims to pre-train models that are difficult to fine-tune on harmful tasks while retaining their utility on other non-harmful tasks. Though prior work has shown empirical evidence for immunizing text-to-image models, the key understanding of when immunization is possible and a precise definition of an immunized model remain unclear. In this work, we propose a framework, based on the condition number of a Hessian matrix, to analyze model immunization for linear models. Building on this framework, we design an algorithm with regularization terms to control the resulting condition numbers after pre-training. Empirical results on linear models and non-linear deep-nets demonstrate the effectiveness of the proposed algorithm on model immunization. The code is available at https://github.com/amberyzheng/model-immunization-cond-num.
PDF82June 10, 2025