ChatPaper.aiChatPaper

Covo-Audio Technisch Rapport

Covo-Audio Technical Report

February 10, 2026
Auteurs: Wenfu Wang, Chenxing Li, Liqiang Zhang, Yiyang Zhao, Yuxiang Zou, Hanzhao Li, Mingyu Cui, Hao Zhang, Kun Wei, Le Xu, Zikang Huang, Jiajun Xu, Jiliang Hu, Xiang He, Zeyu Xie, Jiawen Kang, Youjun Chen, Meng Yu, Dong Yu, Rilin Chen, Linlin Di, Shulin Feng, Na Hu, Yang Liu, Bang Wang, Shan Yang
cs.AI

Samenvatting

In dit werk presenteren wij Covo-Audio, een end-to-end LALM met 7B parameters die continue audio-input direct verwerkt en audio-output genereert binnen een enkele, uniforme architectuur. Door grootschalige, zorgvuldig samengestelde voorafgaande training en gerichte nabehandeling behaalt Covo-Audio state-of-the-art of concurrerende prestaties ten opzichte van modellen van vergelijkbare schaal op een breed scala aan taken, waaronder spraak-tekstmodellering, gesproken dialoog, spraakbegrip, audiobegrip en full-duplex spraakinteractie. Uitgebreide evaluaties tonen aan dat het vooraf getrainde foundation-model sterke spraak-tekstbegrip en semantische redeneervaardigheden vertoont op meerdere benchmarks, waarbij het representatieve open-source modellen van vergelijkbare schaal overtreft. Bovendien toont Covo-Audio-Chat, de dialooggerichte variant, sterke gesproken gespreksvaardigheden, waaronder begrip, contextueel redeneren, het opvolgen van instructies en het genereren van contextueel passende en empathische reacties, wat de toepasbaarheid ervan in realistische scenario's voor conversatie-assistenten valideert. Covo-Audio-Chat-FD, het geëvolueerde full-duplex model, behaalt aanzienlijk superieure prestaties op zowel gesproken dialoogvaardigheden als full-duplex interactiegedrag, wat zijn bekwaamheid in praktische robuustheid aantoont. Om de hoge kosten van het inzetten van end-to-end LALM's voor natuurlijke conversatiesystemen te beperken, stellen wij een intelligentie-spreker-ontkoppelingsstrategie voor die dialoogintelligentie scheidt van stemweergave, waardoor flexibele stemaanpassing mogelijk wordt met minimale text-to-speech (TTS) data, terwijl de dialoogprestaties behouden blijven. Over het geheel genomen benadrukken onze resultaten het sterke potentieel van modellen op 7B-schaal om geavanceerde audio-intelligentie te integreren met hoogwaardig semantisch redeneren, en wijzen zij op een schaalbare weg naar capabelere en veelzijdigere LALM's.
English
In this work, we present Covo-Audio, a 7B-parameter end-to-end LALM that directly processes continuous audio inputs and generates audio outputs within a single unified architecture. Through large-scale curated pretraining and targeted post-training, Covo-Audio achieves state-of-the-art or competitive performance among models of comparable scale across a broad spectrum of tasks, including speech-text modeling, spoken dialogue, speech understanding, audio understanding, and full-duplex voice interaction. Extensive evaluations demonstrate that the pretrained foundation model exhibits strong speech-text comprehension and semantic reasoning capabilities on multiple benchmarks, outperforming representative open-source models of comparable scale. Furthermore, Covo-Audio-Chat, the dialogue-oriented variant, demonstrates strong spoken conversational abilities, including understanding, contextual reasoning, instruction following, and generating contextually appropriate and empathetic responses, validating its applicability to real-world conversational assistant scenarios. Covo-Audio-Chat-FD, the evolved full-duplex model, achieves substantially superior performance on both spoken dialogue capabilities and full-duplex interaction behaviors, demonstrating its competence in practical robustness. To mitigate the high cost of deploying end-to-end LALMs for natural conversational systems, we propose an intelligence-speaker decoupling strategy that separates dialogue intelligence from voice rendering, enabling flexible voice customization with minimal text-to-speech (TTS) data while preserving dialogue performance. Overall, our results highlight the strong potential of 7B-scale models to integrate sophisticated audio intelligence with high-level semantic reasoning, and suggest a scalable path toward more capable and versatile LALMs.
PDF121March 19, 2026