GenCtrl -- Une boîte à outils formelle pour la contrôlabilité des modèles génératifs
GenCtrl -- A Formal Controllability Toolkit for Generative Models
January 9, 2026
papers.authors: Emily Cheng, Carmen Amo Alonso, Federico Danieli, Arno Blaas, Luca Zappella, Pau Rodriguez, Xavier Suau
cs.AI
papers.abstract
Alors que les modèles génératifs deviennent omniprésents, la nécessité d'un contrôle granulaire sur le processus de génération devient cruciale. Pourtant, malgré la prolifération des méthodes de génération contrôlée, du promptage au fine-tuning, une question fondamentale demeure sans réponse : ces modèles sont-ils véritablement contrôlables en premier lieu ? Dans ce travail, nous proposons un cadre théorique pour répondre formellement à cette question. En modélisant l'interaction humain-modèle comme un processus de contrôle, nous proposons un nouvel algorithme pour estimer les ensembles contrôlables des modèles dans un contexte de dialogue. De manière notable, nous fournissons des garanties formelles sur l'erreur d'estimation en fonction de la complexité de l'échantillon : nous dérivons des bornes probablement approximativement correctes pour les estimations d'ensembles contrôlables qui sont indépendantes de la distribution, n'utilisent aucune hypothèse à part la bornitude des sorties, et fonctionnent pour tout système de contrôle non linéaire en boîte noire (c'est-à-dire, tout modèle génératif). Nous démontrons empiriquement le cadre théorique sur différentes tâches de contrôle de processus de dialogue, pour les modèles de langage et la génération texte-image. Nos résultats montrent que la contrôlabilité des modèles est étonnamment fragile et fortement dépendante du cadre expérimental. Cela souligne la nécessité d'une analyse rigoureuse de la contrôlabilité, déplaçant l'attention de la simple tentative de contrôle vers la compréhension préalable de ses limites fondamentales.
English
As generative models become ubiquitous, there is a critical need for fine-grained control over the generation process. Yet, while controlled generation methods from prompting to fine-tuning proliferate, a fundamental question remains unanswered: are these models truly controllable in the first place? In this work, we provide a theoretical framework to formally answer this question. Framing human-model interaction as a control process, we propose a novel algorithm to estimate the controllable sets of models in a dialogue setting. Notably, we provide formal guarantees on the estimation error as a function of sample complexity: we derive probably-approximately correct bounds for controllable set estimates that are distribution-free, employ no assumptions except for output boundedness, and work for any black-box nonlinear control system (i.e., any generative model). We empirically demonstrate the theoretical framework on different tasks in controlling dialogue processes, for both language models and text-to-image generation. Our results show that model controllability is surprisingly fragile and highly dependent on the experimental setting. This highlights the need for rigorous controllability analysis, shifting the focus from simply attempting control to first understanding its fundamental limits.