ChatPaper.aiChatPaper

Leren om multi-klasse anomalieën te detecteren met slechts één normale afbeelding Prompt

Learning to Detect Multi-class Anomalies with Just One Normal Image Prompt

May 14, 2025
Auteurs: Bin-Bin Gao
cs.AI

Samenvatting

Zelfsupervisie reconstructienetwerken die gebruikmaken van self-attention transformers hebben state-of-the-art prestaties bereikt voor multi-klasse (geünificeerde) anomaliedetectie met een enkel model. Deze self-attention reconstructiemodellen werken echter voornamelijk op doelkenmerken, wat kan leiden tot perfecte reconstructie voor zowel normale als anomaliekenmerken vanwege een hoge consistentie met de context, wat resulteert in het falen van anomaliedetectie. Bovendien produceren deze modellen vaak onnauwkeurige anomaliesegmentatie door reconstructie uit te voeren in een latent ruimte met lage ruimtelijke resolutie. Om reconstructiemodellen een hoge efficiëntie te bieden en tegelijkertijd hun generalisatie voor geünificeerde anomaliedetectie te verbeteren, stellen we een eenvoudige maar effectieve methode voor die normale kenmerken reconstrueert en anomaliekenmerken herstelt met slechts één normale afbeeldingsprompt (OneNIP). In tegenstelling tot eerder werk maakt OneNIP het voor het eerst mogelijk om anomalieën te reconstrueren of te herstellen met slechts één normale afbeeldingsprompt, wat de prestaties van geünificeerde anomaliedetectie effectief verbetert. Daarnaast stellen we een gesuperviseerde verfijner voor die reconstructiefouten regresseert door gebruik te maken van zowel echte normale als gesynthetiseerde anomalieafbeeldingen, wat de pixelgewijze anomaliesegmentatie aanzienlijk verbetert. OneNIP overtreft eerdere methoden op drie industriële anomaliedetectiebenchmarks: MVTec, BTAD en VisA. De code en vooraf getrainde modellen zijn beschikbaar op https://github.com/gaobb/OneNIP.
English
Unsupervised reconstruction networks using self-attention transformers have achieved state-of-the-art performance for multi-class (unified) anomaly detection with a single model. However, these self-attention reconstruction models primarily operate on target features, which may result in perfect reconstruction for both normal and anomaly features due to high consistency with context, leading to failure in detecting anomalies. Additionally, these models often produce inaccurate anomaly segmentation due to performing reconstruction in a low spatial resolution latent space. To enable reconstruction models enjoying high efficiency while enhancing their generalization for unified anomaly detection, we propose a simple yet effective method that reconstructs normal features and restores anomaly features with just One Normal Image Prompt (OneNIP). In contrast to previous work, OneNIP allows for the first time to reconstruct or restore anomalies with just one normal image prompt, effectively boosting unified anomaly detection performance. Furthermore, we propose a supervised refiner that regresses reconstruction errors by using both real normal and synthesized anomalous images, which significantly improves pixel-level anomaly segmentation. OneNIP outperforms previous methods on three industry anomaly detection benchmarks: MVTec, BTAD, and VisA. The code and pre-trained models are available at https://github.com/gaobb/OneNIP.

Summary

AI-Generated Summary

PDF42May 16, 2025