ChatPaper.aiChatPaper

Обучение обнаружению многоклассовых аномалий с использованием всего одного нормального изображения

Learning to Detect Multi-class Anomalies with Just One Normal Image Prompt

May 14, 2025
Авторы: Bin-Bin Gao
cs.AI

Аннотация

Нейронные сети для неконтролируемого восстановления, использующие трансформеры с механизмом самовнимания, достигли наилучших результатов в задачах многоклассового (унифицированного) обнаружения аномалий с использованием одной модели. Однако эти модели восстановления с самовниманием в основном работают с целевыми признаками, что может приводить к идеальному восстановлению как нормальных, так и аномальных признаков из-за высокой согласованности с контекстом, что, в свою очередь, затрудняет обнаружение аномалий. Кроме того, такие модели часто дают неточную сегментацию аномалий из-за выполнения восстановления в пространстве скрытых признаков с низким пространственным разрешением. Чтобы повысить эффективность моделей восстановления и улучшить их обобщающую способность для унифицированного обнаружения аномалий, мы предлагаем простой, но эффективный метод, который восстанавливает нормальные признаки и восстанавливает аномальные признаки с использованием всего одного нормального изображения в качестве подсказки (One Normal Image Prompt, OneNIP). В отличие от предыдущих работ, OneNIP впервые позволяет восстанавливать или исправлять аномалии с использованием всего одного нормального изображения, что значительно повышает производительность унифицированного обнаружения аномалий. Кроме того, мы предлагаем контролируемый уточняющий модуль, который регрессирует ошибки восстановления, используя как реальные нормальные, так и синтезированные аномальные изображения, что существенно улучшает сегментацию аномалий на уровне пикселей. OneNIP превосходит предыдущие методы на трех промышленных бенчмарках для обнаружения аномалий: MVTec, BTAD и VisA. Код и предобученные модели доступны по адресу https://github.com/gaobb/OneNIP.
English
Unsupervised reconstruction networks using self-attention transformers have achieved state-of-the-art performance for multi-class (unified) anomaly detection with a single model. However, these self-attention reconstruction models primarily operate on target features, which may result in perfect reconstruction for both normal and anomaly features due to high consistency with context, leading to failure in detecting anomalies. Additionally, these models often produce inaccurate anomaly segmentation due to performing reconstruction in a low spatial resolution latent space. To enable reconstruction models enjoying high efficiency while enhancing their generalization for unified anomaly detection, we propose a simple yet effective method that reconstructs normal features and restores anomaly features with just One Normal Image Prompt (OneNIP). In contrast to previous work, OneNIP allows for the first time to reconstruct or restore anomalies with just one normal image prompt, effectively boosting unified anomaly detection performance. Furthermore, we propose a supervised refiner that regresses reconstruction errors by using both real normal and synthesized anomalous images, which significantly improves pixel-level anomaly segmentation. OneNIP outperforms previous methods on three industry anomaly detection benchmarks: MVTec, BTAD, and VisA. The code and pre-trained models are available at https://github.com/gaobb/OneNIP.

Summary

AI-Generated Summary

PDF42May 16, 2025