ChatPaper.aiChatPaper

Informe Técnico de Covo-Audio

Covo-Audio Technical Report

February 10, 2026
Autores: Wenfu Wang, Chenxing Li, Liqiang Zhang, Yiyang Zhao, Yuxiang Zou, Hanzhao Li, Mingyu Cui, Hao Zhang, Kun Wei, Le Xu, Zikang Huang, Jiajun Xu, Jiliang Hu, Xiang He, Zeyu Xie, Jiawen Kang, Youjun Chen, Meng Yu, Dong Yu, Rilin Chen, Linlin Di, Shulin Feng, Na Hu, Yang Liu, Bang Wang, Shan Yang
cs.AI

Resumen

En este trabajo presentamos Covo-Audio, un LALM integral de 7B parámetros que procesa directamente entradas de audio continuo y genera salidas de audio dentro de una única arquitectura unificada. Mediante un preentrenamiento a gran escala cuidadosamente seleccionado y un post-entrenamiento dirigido, Covo-Audio logra un rendimiento de vanguardia o competitivo entre modelos de escala comparable en un amplio espectro de tareas, incluyendo modelado texto-habla, diálogo hablado, comprensión del habla, comprensión de audio e interacción vocal full-duplex. Evaluaciones exhaustivas demuestran que el modelo base preentrenado exhibe sólidas capacidades de comprensión texto-habla y razonamiento semántico en múltiples benchmarks, superando a modelos representativos de código abierto de escala comparable. Además, Covo-Audio-Chat, la variante orientada al diálogo, demuestra sólidas habilidades conversacionales orales, incluyendo comprensión, razonamiento contextual, seguimiento de instrucciones y generación de respuestas contextualmente apropiadas y empáticas, validando su aplicabilidad en escenarios de asistentes conversacionales del mundo real. Covo-Audio-Chat-FD, el modelo evolucionado full-duplex, logra un rendimiento sustancialmente superior tanto en capacidades de diálogo hablado como en comportamientos de interacción full-duplex, demostrando su competencia en robustez práctica. Para mitigar el alto costo de implementar LALMs integrales en sistemas conversacionales naturales, proponemos una estrategia de desacoplamiento inteligencia-altavoz que separa la inteligencia de diálogo de la representación vocal, permitiendo una personalización flexible de la voz con datos mínimos de texto a voz (TTS) mientras se preserva el rendimiento conversacional. En general, nuestros resultados destacan el fuerte potencial de los modelos de escala 7B para integrar inteligencia de audio sofisticada con razonamiento semántico de alto nivel, y sugieren una ruta escalable hacia LALMs más capaces y versátiles.
English
In this work, we present Covo-Audio, a 7B-parameter end-to-end LALM that directly processes continuous audio inputs and generates audio outputs within a single unified architecture. Through large-scale curated pretraining and targeted post-training, Covo-Audio achieves state-of-the-art or competitive performance among models of comparable scale across a broad spectrum of tasks, including speech-text modeling, spoken dialogue, speech understanding, audio understanding, and full-duplex voice interaction. Extensive evaluations demonstrate that the pretrained foundation model exhibits strong speech-text comprehension and semantic reasoning capabilities on multiple benchmarks, outperforming representative open-source models of comparable scale. Furthermore, Covo-Audio-Chat, the dialogue-oriented variant, demonstrates strong spoken conversational abilities, including understanding, contextual reasoning, instruction following, and generating contextually appropriate and empathetic responses, validating its applicability to real-world conversational assistant scenarios. Covo-Audio-Chat-FD, the evolved full-duplex model, achieves substantially superior performance on both spoken dialogue capabilities and full-duplex interaction behaviors, demonstrating its competence in practical robustness. To mitigate the high cost of deploying end-to-end LALMs for natural conversational systems, we propose an intelligence-speaker decoupling strategy that separates dialogue intelligence from voice rendering, enabling flexible voice customization with minimal text-to-speech (TTS) data while preserving dialogue performance. Overall, our results highlight the strong potential of 7B-scale models to integrate sophisticated audio intelligence with high-level semantic reasoning, and suggest a scalable path toward more capable and versatile LALMs.
PDF70February 12, 2026