Apprentissage de Représentations Explicables et Disentanglées pour l'Attribution d'Auteur Généralisable à l'Ère de l'IA Générative
Explainable Disentangled Representation Learning for Generalizable Authorship Attribution in the Era of Generative AI
April 23, 2026
Auteurs: Hieu Man, Van-Cuong Pham, Nghia Trung Ngo, Franck Dernoncourt, Thien Huu Nguyen
cs.AI
Résumé
L'apprentissage de représentations robustes du style d'auteur est crucial pour l'attribution de paternité et la détection de texte généré par IA. Cependant, les méthodes existantes peinent souvent avec l'enchevêtrement contenu-style, où les modèles apprennent des corrélations fallacieuses entre les styles d'écriture des auteurs et les sujets abordés, ce qui entraîne une mauvaise généralisation entre les domaines. Pour relever ce défi, nous proposons le *Explainable Authorship Variational Autoencoder* (EAVAE), un nouveau cadre qui dissocie explicitement le style du contenu par une séparation architecturale dès la conception. EAVAE pré-entraîne d'abord des encodeurs de style en utilisant l'apprentissage contrastif supervisé sur des données de paternité variées, puis effectue un ajustement fin avec une architecture de *Variational Autoencoder* (VAE) utilisant des encodeurs distincts pour les représentations du style et du contenu. La dissociation est imposée via un discriminateur novateur qui non seulement distingue si des paires de représentations style/contenu appartiennent au même auteur/à la même source de contenu ou à des auteurs/sources différents, mais génère également une explication en langage naturel pour sa décision, atténuant simultanément les informations confondantes et améliorant l'interprétabilité. Des expériences approfondies démontrent l'efficacité d'EAVAE. Pour l'attribution de paternité, nous obtenons des performances à l'état de l'art sur divers ensembles de données, notamment Amazon Reviews, PAN21 et HRS. Pour la détection de texte généré par IA, EAVAE excelle en apprentissage en *few-shot* sur l'ensemble de données M4. Les dépôts de code et de données sont disponibles en ligne : https://github.com/hieum98/avae et https://huggingface.co/collections/Hieuman/document-level-authorship-datasets.
English
Learning robust representations of authorial style is crucial for authorship attribution and AI-generated text detection. However, existing methods often struggle with content-style entanglement, where models learn spurious correlations between authors' writing styles and topics, leading to poor generalization across domains. To address this challenge, we propose Explainable Authorship Variational Autoencoder (EAVAE), a novel framework that explicitly disentangles style from content through architectural separation-by-design. EAVAE first pretrains style encoders using supervised contrastive learning on diverse authorship data, then finetunes with a Variational Autoencoder (VEA) architecture using separate encoders for style and content representations. Disentanglement is enforced through a novel discriminator that not only distinguishes whether pairs of style/content representations belong to the same or different authors/content sources, but also generates natural language explanation for their decision, simultaneously mitigating confounding information and enhancing interpretability. Extensive experiments demonstrate the effectiveness of EAVAE. On authorship attribution, we achieve state-of-the-art performance on various datasets, including Amazon Reviews, PAN21, and HRS. For AI-generated text detection, EAVAE excels in few-shot learning over the M4 dataset. Code and data repositories are available onlinehttps://github.com/hieum98/avae https://huggingface.co/collections/Hieuman/document-level-authorship-datasets.