ChatPaper.aiChatPaper

Aprendizaje Explicable de Representaciones Disentrelazadas para la Atribución de Autoría Generalizable en la Era de la IA Generativa

Explainable Disentangled Representation Learning for Generalizable Authorship Attribution in the Era of Generative AI

April 23, 2026
Autores: Hieu Man, Van-Cuong Pham, Nghia Trung Ngo, Franck Dernoncourt, Thien Huu Nguyen
cs.AI

Resumen

Aprender representaciones robustas del estilo autorial es crucial para la atribución de autoría y la detección de texto generado por IA. Sin embargo, los métodos existentes a menudo luchan con el entrelazamiento contenido-estilo, donde los modelos aprenden correlaciones espurias entre los estilos de escritura de los autores y los temas, lo que conduce a una mala generalización entre dominios. Para abordar este desafío, proponemos el **Autoencoder Variacional de Autoría Explicable (EAVAE)**, un marco novedoso que desentrelaza explícitamente el estilo del contenido mediante una separación arquitectónica por diseño. EAVAE primero preentrena codificadores de estilo usando aprendizaje contrastivo supervisado en datos de autoría diversos, y luego ajusta estos modelos con una arquitectura de Autoencoder Variacional (VAE) que utiliza codificadores separados para las representaciones de estilo y contenido. El desentrelazamiento se aplica mediante un discriminador novedoso que no solo distingue si pares de representaciones de estilo/contenido pertenecen al mismo autor o fuente de contenido o a diferentes, sino que también genera una explicación en lenguaje natural para su decisión, mitigando simultáneamente la información confusa y mejorando la interpretabilidad. Experimentos exhaustivos demuestran la efectividad de EAVAE. En atribución de autoría, logramos un rendimiento de vanguardia en varios conjuntos de datos, incluyendo Amazon Reviews, PAN21 y HRS. Para la detección de texto generado por IA, EAVAE sobresale en el aprendizaje con pocos ejemplos (few-shot learning) sobre el conjunto de datos M4. Los repositorios de código y datos están disponibles en línea: https://github.com/hieum98/avae y https://huggingface.co/collections/Hieuman/document-level-authorship-datasets.
English
Learning robust representations of authorial style is crucial for authorship attribution and AI-generated text detection. However, existing methods often struggle with content-style entanglement, where models learn spurious correlations between authors' writing styles and topics, leading to poor generalization across domains. To address this challenge, we propose Explainable Authorship Variational Autoencoder (EAVAE), a novel framework that explicitly disentangles style from content through architectural separation-by-design. EAVAE first pretrains style encoders using supervised contrastive learning on diverse authorship data, then finetunes with a Variational Autoencoder (VEA) architecture using separate encoders for style and content representations. Disentanglement is enforced through a novel discriminator that not only distinguishes whether pairs of style/content representations belong to the same or different authors/content sources, but also generates natural language explanation for their decision, simultaneously mitigating confounding information and enhancing interpretability. Extensive experiments demonstrate the effectiveness of EAVAE. On authorship attribution, we achieve state-of-the-art performance on various datasets, including Amazon Reviews, PAN21, and HRS. For AI-generated text detection, EAVAE excels in few-shot learning over the M4 dataset. Code and data repositories are available onlinehttps://github.com/hieum98/avae https://huggingface.co/collections/Hieuman/document-level-authorship-datasets.
PDF11April 25, 2026