Selección de Muestras mediante Autoencoders Multitarea en Aprendizaje Federado con Datos No IID
Sample Selection Using Multi-Task Autoencoders in Federated Learning with Non-IID Data
April 28, 2026
Autores: Emre Ardıç, Yakup Genç
cs.AI
Resumen
El aprendizaje federado es un paradigma de aprendizaje automático en el que múltiples dispositivos entrenan colaborativamente un modelo bajo la supervisión de un servidor central, garantizando la privacidad de los datos. Sin embargo, su rendimiento se ve frecuentemente obstaculizado por muestras redundantes, maliciosas o anómalas, lo que provoca degradación e ineficiencia del modelo. Para superar estos problemas, proponemos nuevos métodos de selección de muestras para clasificación de imágenes, empleando un autoencoder multitarea para estimar las contribuciones de las muestras mediante análisis de pérdidas y características. Nuestro enfoque incorpora detección no supervisada de valores atípicos, utilizando métodos de máquina de vectores de soporte de una clase (OCSVM), bosque de aislamiento (IF) y umbral de pérdida adaptativo (AT), gestionados por un servidor central para filtrar muestras ruidosas en los clientes. También proponemos una pérdida de descripción de datos de vectores de soporte (SVDD) multiclase controlada por un servidor central para mejorar la selección de muestras basada en características. Validamos nuestros métodos en los conjuntos de datos CIFAR10 y MNIST, considerando distintos números de clientes, distribuciones no-IID y niveles de ruido de hasta el 40%. Los resultados muestran mejoras significativas en precisión con la selección de muestras basada en pérdidas, logrando ganancias de hasta el 7,02% en CIFAR10 con OCSVM y del 1,83% en MNIST con AT. Adicionalmente, nuestra pérdida SVDD federada mejora aún más la selección de muestras basada en características, obteniendo ganancias de precisión de hasta el 0,99% en CIFAR10 con OCSVM. Estos resultados demuestran la efectividad de nuestros métodos para mejorar la precisión del modelo en diversas condiciones de número de clientes y ruido.
English
Federated learning is a machine learning paradigm in which multiple devices collaboratively train a model under the supervision of a central server while ensuring data privacy. However, its performance is often hindered by redundant, malicious, or abnormal samples, leading to model degradation and inefficiency. To overcome these issues, we propose novel sample selection methods for image classification, employing a multitask autoencoder to estimate sample contributions through loss and feature analysis. Our approach incorporates unsupervised outlier detection, using one-class support vector machine (OCSVM), isolation forest (IF), and adaptive loss threshold (AT) methods managed by a central server to filter noisy samples on clients. We also propose a multi-class deep support vector data description (SVDD) loss controlled by a central server to enhance feature-based sample selection. We validate our methods on CIFAR10 and MNIST datasets across varying numbers of clients, non-IID distributions, and noise levels up to 40%. The results show significant accuracy improvements with loss-based sample selection, achieving gains of up to 7.02% on CIFAR10 with OCSVM and 1.83% on MNIST with AT. Additionally, our federated SVDD loss further improves feature-based sample selection, yielding accuracy gains of up to 0.99% on CIFAR10 with OCSVM. These results show the effectiveness of our methods in improving model accuracy across various client counts and noise conditions.