Formation interactive : optimisation des réseaux neuronaux pilotée par le retour d'information
Interactive Training: Feedback-Driven Neural Network Optimization
October 2, 2025
papers.authors: Wentao Zhang, Yang Young Lu, Yuntian Deng
cs.AI
papers.abstract
L'entraînement traditionnel des réseaux de neurones suit généralement des recettes d'optimisation fixes et prédéfinies, manquant de flexibilité pour répondre dynamiquement aux instabilités ou aux problèmes émergents lors de l'apprentissage. Dans cet article, nous présentons l'**Entraînement Interactif**, un cadre open-source qui permet une intervention en temps réel, guidée par des retours, pendant l'entraînement des réseaux de neurones, par des experts humains ou des agents d'IA automatisés. Au cœur de l'Entraînement Interactif se trouve un serveur de contrôle qui médie la communication entre les utilisateurs ou les agents et le processus d'entraînement en cours, permettant aux utilisateurs d'ajuster dynamiquement les hyperparamètres de l'optimiseur, les données d'entraînement et les points de contrôle du modèle. À travers trois études de cas, nous démontrons que l'Entraînement Interactif permet d'obtenir une meilleure stabilité de l'entraînement, une sensibilité réduite aux hyperparamètres initiaux et une amélioration de l'adaptabilité aux besoins évolutifs des utilisateurs, ouvrant la voie à un futur paradigme d'entraînement où les agents d'IA surveillent de manière autonome les journaux d'entraînement, résolvent proactivement les instabilités et optimisent la dynamique de l'apprentissage.
English
Traditional neural network training typically follows fixed, predefined
optimization recipes, lacking the flexibility to dynamically respond to
instabilities or emerging training issues. In this paper, we introduce
Interactive Training, an open-source framework that enables real-time,
feedback-driven intervention during neural network training by human experts or
automated AI agents. At its core, Interactive Training uses a control server to
mediate communication between users or agents and the ongoing training process,
allowing users to dynamically adjust optimizer hyperparameters, training data,
and model checkpoints. Through three case studies, we demonstrate that
Interactive Training achieves superior training stability, reduced sensitivity
to initial hyperparameters, and improved adaptability to evolving user needs,
paving the way toward a future training paradigm where AI agents autonomously
monitor training logs, proactively resolve instabilities, and optimize training
dynamics.