ChatPaper.aiChatPaper

Erklärbare entflochtene Repräsentationslernverfahren für generalisierbare Autorschaftszuordnung im Zeitalter der generativen KI

Explainable Disentangled Representation Learning for Generalizable Authorship Attribution in the Era of Generative AI

April 23, 2026
Autoren: Hieu Man, Van-Cuong Pham, Nghia Trung Ngo, Franck Dernoncourt, Thien Huu Nguyen
cs.AI

Zusammenfassung

Das Erlernen robuster Repräsentationen des individuellen Schreibstils ist entscheidend für die Autorenzuordnung und die Erkennung von KI-generierten Texten. Bisherige Methoden scheitern jedoch häufig an der Verflechtung von Inhalt und Stil, bei der Modelle trügerische Korrelationen zwischen dem Schreibstil der Autoren und den behandelten Themen lernen, was zu einer schlechten Generalisierung über verschiedene Domänen hinweg führt. Um diese Herausforderung zu bewältigen, schlagen wir das Explainable Authorship Variational Autoencoder (EAVAE) Framework vor, einen neuartigen Ansatz, der Stil und Inhalt explizit durch eine architektonische Trennung von Grund auf entwirrt. EAVAE trainiert zunächst Stil-Encoder mittels supervised Contrastive Learning mit diversen Autorendaten vor und feintunt diese anschließend mit einer Variational Autoencoder (VAE)-Architektur, die separate Encoder für Stil- und Inhaltsrepräsentationen verwendet. Die Entflechtung wird durch einen neuartigen Discriminator erzwungen, der nicht nur unterscheidet, ob Paare von Stil-/Inhaltsrepräsentationen zum selben Autor/Inhaltsquelle oder zu unterschiedlichen gehören, sondern auch natürliche Spracherklärungen für seine Entscheidung generiert. Dies mildert gleichzeitig Störinformationen ab und erhöht die Interpretierbarkeit. Umfangreiche Experimente belegen die Wirksamkeit von EAVAE. Bei der Autorenzuordnung erzielen wir state-of-the-art Ergebnisse auf verschiedenen Datensätzen, einschließlich Amazon Reviews, PAN21 und HRS. Für die Erkennung von KI-generierten Texten übertrifft EAVAE im Few-Shot-Learning auf dem M4-Datensatz. Code und Datenrepositorien sind online verfügbar: https://github.com/hieum98/avae und https://huggingface.co/collections/Hieuman/document-level-authorship-datasets.
English
Learning robust representations of authorial style is crucial for authorship attribution and AI-generated text detection. However, existing methods often struggle with content-style entanglement, where models learn spurious correlations between authors' writing styles and topics, leading to poor generalization across domains. To address this challenge, we propose Explainable Authorship Variational Autoencoder (EAVAE), a novel framework that explicitly disentangles style from content through architectural separation-by-design. EAVAE first pretrains style encoders using supervised contrastive learning on diverse authorship data, then finetunes with a Variational Autoencoder (VEA) architecture using separate encoders for style and content representations. Disentanglement is enforced through a novel discriminator that not only distinguishes whether pairs of style/content representations belong to the same or different authors/content sources, but also generates natural language explanation for their decision, simultaneously mitigating confounding information and enhancing interpretability. Extensive experiments demonstrate the effectiveness of EAVAE. On authorship attribution, we achieve state-of-the-art performance on various datasets, including Amazon Reviews, PAN21, and HRS. For AI-generated text detection, EAVAE excels in few-shot learning over the M4 dataset. Code and data repositories are available onlinehttps://github.com/hieum98/avae https://huggingface.co/collections/Hieuman/document-level-authorship-datasets.
PDF11April 25, 2026