Technischer Bericht zu Step-Audio-EditX
Step-Audio-EditX Technical Report
November 5, 2025
papers.authors: Chao Yan, Boyong Wu, Peng Yang, Pengfei Tan, Guoqiang Hu, Yuxin Zhang, Xiangyu, Zhang, Fei Tian, Xuerui Yang, Xiangyu Zhang, Daxin Jiang, Gang Yu
cs.AI
papers.abstract
Wir präsentieren Step-Audio-EditX, das erste quelloffene, LLM-basierte Audiomodell, das sich durch ausdrucksstarke und iterative Audio-Bearbeitung auszeichnet und dabei Emotionen, Sprechstil und Paralinguistik umfasst, kombiniert mit robusten Zero-Shot-Text-to-Speech (TTS)-Fähigkeiten. Unsere zentrale Innovation besteht in der Nutzung ausschließlich synthetischer Daten mit großen Margen, was den Bedarf an einbettungsbasierten Priors oder Hilfsmodulen umgeht. Dieser Large-Margin-Lernansatz ermöglicht sowohl iterative Steuerung als auch hohe Expressivität über verschiedene Stimmen hinweg und stellt eine grundlegende Abkehr vom konventionellen Fokus auf Entflechtung auf Repräsentationsebene dar. Evaluierungsergebnisse belegen, dass Step-Audio-EditX sowohl MiniMax-2.6-hd als auch Doubao-Seed-TTS-2.0 in der Emotionsbearbeitung und anderen feinkörnigen Steuerungsaufgaben übertrifft.
English
We present Step-Audio-EditX, the first open-source LLM-based audio model
excelling at expressive and iterative audio editing encompassing emotion,
speaking style, and paralinguistics alongside robust zero-shot text-to-speech
(TTS) capabilities.Our core innovation lies in leveraging only large-margin
synthetic data, which circumvents the need for embedding-based priors or
auxiliary modules. This large-margin learning approach enables both iterative
control and high expressivity across voices, and represents a fundamental pivot
from the conventional focus on representation-level disentanglement. Evaluation
results demonstrate that Step-Audio-EditX surpasses both MiniMax-2.6-hd and
Doubao-Seed-TTS-2.0 in emotion editing and other fine-grained control tasks.