Optimización Consciente de la Geometría para la Clasificación de Sonidos Respiratorios: Mejora de la Sensibilidad con Transformadores de Espectrogramas de Audio Optimizados por SAM
Geometry-Aware Optimization for Respiratory Sound Classification: Enhancing Sensitivity with SAM-Optimized Audio Spectrogram Transformers
December 27, 2025
Autores: Atakan Işık, Selin Vulga Işık, Ahmet Feridun Işık, Mahşuk Taylan
cs.AI
Resumen
La clasificación de sonidos respiratorios se ve dificultada por el tamaño limitado, los altos niveles de ruido y el severo desequilibrio de clases en conjuntos de datos de referencia como ICBHI 2017. Si bien los modelos basados en Transformers ofrecen potentes capacidades de extracción de características, son propensos al sobreajuste y a menudo convergen a mínimos agudos en el panorama de la función de pérdida cuando se entrenan con estos datos médicos limitados. Para abordar este problema, presentamos un marco que mejora el Audio Spectrogram Transformer (AST) mediante la Minimización Consciente de la Agudeza (SAM). En lugar de simplemente minimizar la pérdida de entrenamiento, nuestro enfoque optimiza la geometría de la superficie de pérdida, guiando al modelo hacia mínimos más planos que generalizan mejor con pacientes no vistos. También implementamos una estrategia de muestreo ponderado para manejar el desequilibrio de clases de manera efectiva. Nuestro método alcanza un resultado puntero del 68.10% en el conjunto de datos ICBHI 2017, superando a los baselines existentes basados en CNN e híbridos. Más importante aún, alcanza una sensibilidad del 68.31%, una mejora crucial para un cribado clínico fiable. Un análisis adicional utilizando t-SNE y mapas de atención confirma que el modelo aprende características robustas y discriminativas, en lugar de memorizar el ruido de fondo.
English
Respiratory sound classification is hindered by the limited size, high noise levels, and severe class imbalance of benchmark datasets like ICBHI 2017. While Transformer-based models offer powerful feature extraction capabilities, they are prone to overfitting and often converge to sharp minima in the loss landscape when trained on such constrained medical data. To address this, we introduce a framework that enhances the Audio Spectrogram Transformer (AST) using Sharpness-Aware Minimization (SAM). Instead of merely minimizing the training loss, our approach optimizes the geometry of the loss surface, guiding the model toward flatter minima that generalize better to unseen patients. We also implement a weighted sampling strategy to handle class imbalance effectively. Our method achieves a state-of-the-art score of 68.10% on the ICBHI 2017 dataset, outperforming existing CNN and hybrid baselines. More importantly, it reaches a sensitivity of 68.31%, a crucial improvement for reliable clinical screening. Further analysis using t-SNE and attention maps confirms that the model learns robust, discriminative features rather than memorizing background noise.