Объяснимое обучение разъединенным представлениям для обобщаемой атрибуции авторства в эпоху генеративного ИИ
Explainable Disentangled Representation Learning for Generalizable Authorship Attribution in the Era of Generative AI
April 23, 2026
Авторы: Hieu Man, Van-Cuong Pham, Nghia Trung Ngo, Franck Dernoncourt, Thien Huu Nguyen
cs.AI
Аннотация
Обучение устойчивых представлений авторского стиля является ключевой задачей для установления авторства и обнаружения текстов, созданных искусственным интеллектом. Однако существующие методы часто сталкиваются с проблемой переплетения содержания и стиля, когда модели выявляют ложные корреляции между стилем письма авторов и тематикой, что приводит к низкой способности к обобщению в различных областях. Для решения этой проблемы мы предлагаем Explainable Authorship Variational Autoencoder (EAVAE) — новую архитектуру, которая явно разделяет стиль и содержание за счет проектного разделения. EAVAE сначала проводит предварительное обучение энкодеров стиля с использованием контролируемого контрастивного обучения на разнообразных данных об авторстве, а затем дообучает модель с помощью архитектуры Вариационного Автоэнкодера (VAE), используя раздельные энкодеры для представлений стиля и содержания. Разделение обеспечивается за счет нового дискриминатора, который не только определяет, принадлежат ли пары представлений стиля/содержания одному и тому же или разным авторам/источникам контента, но и генерирует объяснение на естественном языке для своего решения, одновременно уменьшая влияние мешающей информации и повышая интерпретируемость. Многочисленные эксперименты демонстрируют эффективность EAVAE. В задаче установления авторства мы достигаем передовых результатов на различных наборах данных, включая Amazon Reviews, PAN21 и HRS. В задаче обнаружения текстов, сгенерированных ИИ, EAVAE превосходит другие методы в условиях обучения с малым количеством примеров на наборе данных M4. Код и репозитории с данными доступны онлайн: https://github.com/hieum98/avae https://huggingface.co/collections/Hieuman/document-level-authorship-datasets.
English
Learning robust representations of authorial style is crucial for authorship attribution and AI-generated text detection. However, existing methods often struggle with content-style entanglement, where models learn spurious correlations between authors' writing styles and topics, leading to poor generalization across domains. To address this challenge, we propose Explainable Authorship Variational Autoencoder (EAVAE), a novel framework that explicitly disentangles style from content through architectural separation-by-design. EAVAE first pretrains style encoders using supervised contrastive learning on diverse authorship data, then finetunes with a Variational Autoencoder (VEA) architecture using separate encoders for style and content representations. Disentanglement is enforced through a novel discriminator that not only distinguishes whether pairs of style/content representations belong to the same or different authors/content sources, but also generates natural language explanation for their decision, simultaneously mitigating confounding information and enhancing interpretability. Extensive experiments demonstrate the effectiveness of EAVAE. On authorship attribution, we achieve state-of-the-art performance on various datasets, including Amazon Reviews, PAN21, and HRS. For AI-generated text detection, EAVAE excels in few-shot learning over the M4 dataset. Code and data repositories are available onlinehttps://github.com/hieum98/avae https://huggingface.co/collections/Hieuman/document-level-authorship-datasets.