ChatPaper.aiChatPaper

Más allá de los cuellos de botella lineales: Distilación de conocimiento basada en splines para la clasificación de estilos artísticos culturalmente diversos

Beyond Linear Bottlenecks: Spline-Based Knowledge Distillation for Culturally Diverse Art Style Classification

July 31, 2025
Autores: Abdellah Zakaria Sellam, Salah Eddine Bekhouche, Cosimo Distante, Abdelmalik Taleb-Ahmed
cs.AI

Resumen

La clasificación de estilos artísticos sigue siendo un desafío formidable en la estética computacional debido a la escasez de conjuntos de datos etiquetados por expertos y la intrincada, a menudo no lineal, interacción de elementos estilísticos. Si bien los marcos de autoaprendizaje con doble profesor recientes reducen la dependencia de datos etiquetados, sus capas de proyección lineal y enfoque localizado tienen dificultades para modelar el contexto compositivo global y las interacciones complejas entre características de estilo. Mejoramos el marco de destilación de conocimiento de doble profesor para abordar estas limitaciones al reemplazar las cabezas de proyección y predicción convencionales de MLP con Redes de Kolmogorov-Arnold (KANs). Nuestro enfoque mantiene la guía complementaria de dos redes profesor, una enfatizando patrones localizados de textura y pinceladas, y la otra capturando jerarquías estilísticas más amplias, mientras aprovecha las activaciones basadas en splines de las KANs para modelar correlaciones no lineales de características con precisión matemática. Los experimentos en WikiArt y Pandora18k demuestran que nuestro enfoque supera la arquitectura base de doble profesor en precisión Top-1. Nuestros hallazgos resaltan la importancia de las KANs en el desenredado de variedades estilísticas complejas, lo que conduce a una mejor precisión en la sonda lineal en comparación con las proyecciones MLP.
English
Art style classification remains a formidable challenge in computational aesthetics due to the scarcity of expertly labeled datasets and the intricate, often nonlinear interplay of stylistic elements. While recent dual-teacher self-supervised frameworks reduce reliance on labeled data, their linear projection layers and localized focus struggle to model global compositional context and complex style-feature interactions. We enhance the dual-teacher knowledge distillation framework to address these limitations by replacing conventional MLP projection and prediction heads with Kolmogorov-Arnold Networks (KANs). Our approach retains complementary guidance from two teacher networks, one emphasizing localized texture and brushstroke patterns, the other capturing broader stylistic hierarchies while leveraging KANs' spline-based activations to model nonlinear feature correlations with mathematical precision. Experiments on WikiArt and Pandora18k demonstrate that our approach outperforms the base dual teacher architecture in Top-1 accuracy. Our findings highlight the importance of KANs in disentangling complex style manifolds, leading to better linear probe accuracy than MLP projections.
PDF32August 1, 2025