Retour à la réparation : un réseau de débruitage minimal pour la détection d'anomalies dans les séries temporelles
Back to Repair: A Minimal Denoising Network\ for Time Series Anomaly Detection
April 19, 2026
Auteurs: Kadir-Kaan Özer, René Ebeling, Markus Enzweiler
cs.AI
Résumé
Nous présentons JuRe (Just Repair), un réseau de débiaisage minimal pour la détection d'anomalies dans les séries temporelles, qui met en lumière un résultat central : la complexité architecturale est superflue lorsque l'objectif d'apprentissage met correctement en œuvre le principe de projection sur la variété. JuRe est constitué d'un unique bloc résiduel convolutionnel séparable en profondeur avec une dimension cachée de 128, entraîné à réparer des fenêtres de séries temporelles corrompues et évalué à l'inférence par une fonction de divergence structurelle fixe et sans paramètre. Bien qu'il n'utilise ni mécanisme d'attention, ni variable latente, ni composant adversarial, JuRe se classe deuxième sur le benchmark multivarié TSB-AD (AUC-PR 0,404, 180 séries, 17 jeux de données) et deuxième sur l'archive univariée UCR selon l'AUC-PR (0,198, 250 séries), devançant toutes les bases de référence neuronales en termes d'AUC-PR et de VUS-PR. Une ablation des composants sur TSB-AD identifie la corruption pendant l'entraînement comme le facteur dominant (ΔAUC-PR = 0,047 lors de sa suppression), confirmant que c'est l'objectif de débiaisage, et non la capacité du réseau, qui détermine la qualité de la détection. Des tests de Wilcoxon appariés établissent une significativité statistique contre 21 des 25 bases de référence sur TSB-AD. Le code est disponible à l'adresse https://github.com/iis-esslingen/JuRe.
English
We introduce JuRe (Just Repair), a minimal denoising network for time series anomaly detection that exposes a central finding: architectural complexity is unnecessary when the training objective correctly implements the manifold-projection principle. JuRe consists of a single depthwise-separable convolutional residual block with hidden dimension 128, trained to repair corrupted time series windows and scored at inference by a fixed, parameter-free structural discrepancy function. Despite using no attention, no latent variable, and no adversarial component, JuRe ranks second on the TSB-AD multivariate benchmark (AUC-PR 0.404, 180 series, 17 datasets) and second on the UCR univariate archive by AUC-PR (0.198, 250 series), leading all neural baselines on AUC-PR and VUS-PR. Component ablation on TSB-AD identifies training-time corruption as the dominant factor (ΔAUC-PR = 0.047 on removal), confirming that the denoising objective, not network capacity, drives detection quality. Pairwise Wilcoxon signed-rank tests establish statistical significance against 21 of 25 baselines on TSB-AD. Code is available at the URL https://github.com/iis-esslingen/JuRe.