ChatPaper.aiChatPaper

Covo-Audio Technischer Bericht

Covo-Audio Technical Report

February 10, 2026
papers.authors: Wenfu Wang, Chenxing Li, Liqiang Zhang, Yiyang Zhao, Yuxiang Zou, Hanzhao Li, Mingyu Cui, Hao Zhang, Kun Wei, Le Xu, Zikang Huang, Jiajun Xu, Jiliang Hu, Xiang He, Zeyu Xie, Jiawen Kang, Youjun Chen, Meng Yu, Dong Yu, Rilin Chen, Linlin Di, Shulin Feng, Na Hu, Yang Liu, Bang Wang, Shan Yang
cs.AI

papers.abstract

In dieser Arbeit stellen wir Covo-Audio vor, ein end-to-end LALM mit 7B Parametern, das kontinuierliche Audioeingaben direkt verarbeitet und Audioausgaben innerhalb einer einzigen, vereinheitlichten Architektur erzeugt. Durch groß angelegtes, kuratiertes Pre-Training und gezieltes Post-Training erzielt Covo-Audio state-of-the-art oder wettbewerbsfähige Leistungen unter Modellen vergleichbarer Größe in einem breiten Aufgabenspektrum, einschließlich Sprach-Text-Modellierung, gesprochenem Dialog, Sprachverständnis, Audioverständnis und Vollduplex-Sprachinteraktion. Umfangreiche Evaluationen zeigen, dass das vortrainierte Fundamentmodell auf mehreren Benchmarks starke Fähigkeiten im Sprach-Text-Verständnis und semantischen Schlussfolgern aufweist und repräsentative Open-Source-Modelle vergleichbarer Größe übertrifft. Darüber hinaus weist Covo-Audio-Chat, die dialogorientierte Variante, starke gesprochene Konversationsfähigkeiten nach, einschließlich Verständnis, kontextuellem Reasoning, Befolgen von Anweisungen und Erzeugen kontextuell angemessener und empathischer Antworten, was seine Anwendbarkeit in realen Konversations-Assistant-Szenarien validiert. Covo-Audio-Chat-FD, das weiterentwickelte Vollduplex-Modell, erzielt eine deutlich überlegene Leistung sowohl bei gesprochenen Dialogfähigkeiten als auch bei Vollduplex-Interaktionsverhalten und demonstriert damit seine Kompetenz in puncto praktischer Robustheit. Um die hohen Kosten für den Einsatz end-to-end LALMs in natürlichen Konversationssystemen zu mindern, schlagen wir eine Intelligence-Speaker-Entkopplungsstrategie vor, die Dialogintelligenz von Sprachwiedergabe trennt. Dies ermöglicht eine flexible Sprachanpassung mit minimalen Text-to-Speech (TTS)-Daten bei Erhalt der Dialogleistung. Insgesamt unterstreichen unsere Ergebnisse das große Potenzial von Modellen im 7B-Maßstab, anspruchsvolle Audiointelligenz mit hochrangigem semantischem Reasoning zu integrieren, und weisen einen skalierbaren Weg zu leistungsfähigeren und vielseitigeren LALMs.
English
In this work, we present Covo-Audio, a 7B-parameter end-to-end LALM that directly processes continuous audio inputs and generates audio outputs within a single unified architecture. Through large-scale curated pretraining and targeted post-training, Covo-Audio achieves state-of-the-art or competitive performance among models of comparable scale across a broad spectrum of tasks, including speech-text modeling, spoken dialogue, speech understanding, audio understanding, and full-duplex voice interaction. Extensive evaluations demonstrate that the pretrained foundation model exhibits strong speech-text comprehension and semantic reasoning capabilities on multiple benchmarks, outperforming representative open-source models of comparable scale. Furthermore, Covo-Audio-Chat, the dialogue-oriented variant, demonstrates strong spoken conversational abilities, including understanding, contextual reasoning, instruction following, and generating contextually appropriate and empathetic responses, validating its applicability to real-world conversational assistant scenarios. Covo-Audio-Chat-FD, the evolved full-duplex model, achieves substantially superior performance on both spoken dialogue capabilities and full-duplex interaction behaviors, demonstrating its competence in practical robustness. To mitigate the high cost of deploying end-to-end LALMs for natural conversational systems, we propose an intelligence-speaker decoupling strategy that separates dialogue intelligence from voice rendering, enabling flexible voice customization with minimal text-to-speech (TTS) data while preserving dialogue performance. Overall, our results highlight the strong potential of 7B-scale models to integrate sophisticated audio intelligence with high-level semantic reasoning, and suggest a scalable path toward more capable and versatile LALMs.
PDF70February 12, 2026