ChatPaper.aiChatPaper

Desvio de Segurança Após o Ajuste Fino: Evidências de Domínios de Alto Risco

Safety Drift After Fine-Tuning: Evidence from High-Stakes Domains

April 27, 2026
Autores: Emaan Bilal Khan, Amy Winecoff, Miranda Bogen, Dylan Hadfield-Menell
cs.AI

Resumo

Os modelos de base são rotineiramente ajustados (fine-tuned) para uso em domínios específicos, no entanto, as avaliações de segurança são normalmente conduzidas apenas nos modelos base, assumindo implicitamente que as propriedades de segurança persistem através da adaptação downstream. Testamos esta suposição analisando o comportamento de segurança de 100 modelos, incluindo ajustes amplamente utilizados nos domínios médico e jurídico, bem como adaptações controladas de modelos de base abertos juntamente com as suas bases originais. Através de benchmarks de segurança de propósito geral e específicos de domínio, descobrimos que o ajuste benigno induz mudanças grandes, heterogéneas e frequentemente contraditórias na segurança medida: os modelos frequentemente melhoram em alguns instrumentos enquanto degradam noutros, com discordância substancial entre as avaliações. Estes resultados mostram que o comportamento de segurança não é estável sob uma adaptação downstream comum, levantando questões críticas sobre as práticas de governação e implantação centradas em avaliações de modelos base. Sem uma reavaliação explícita dos modelos ajustados em contextos relevantes para a implantação, tais abordagens ficam aquém de gerir adequadamente o risco downstream, negligenciando fontes práticas de dano – falhas que são especialmente consequentes em contextos de alto risco e desafiam os atuais paradigmas de responsabilização.
English
Foundation models are routinely fine-tuned for use in particular domains, yet safety assessments are typically conducted only on base models, implicitly assuming that safety properties persist through downstream adaptation. We test this assumption by analyzing the safety behavior of 100 models, including widely deployed fine-tunes in the medical and legal domains as well as controlled adaptations of open foundation models alongside their bases. Across general-purpose and domain-specific safety benchmarks, we find that benign fine-tuning induces large, heterogeneous, and often contradictory changes in measured safety: models frequently improve on some instruments while degrading on others, with substantial disagreement across evaluations. These results show that safety behavior is not stable under ordinary downstream adaptation, raising critical questions about governance and deployment practices centered on base-model evaluations. Without explicit re-evaluation of fine-tuned models in deployment-relevant contexts, such approaches fall short of adequately managing downstream risk, overlooking practical sources of harm -- failures that are especially consequential in high-stakes settings and challenge current accountability paradigms.
PDF01May 2, 2026