Voxtral
Voxtral
July 17, 2025
papers.authors: Alexander H. Liu, Andy Ehrenberg, Andy Lo, Clément Denoix, Corentin Barreau, Guillaume Lample, Jean-Malo Delignon, Khyathi Raghavi Chandu, Patrick von Platen, Pavankumar Reddy Muddireddy, Sanchit Gandhi, Soham Ghosh, Srijan Mishra, Thomas Foubert, Abhinav Rastogi, Adam Yang, Albert Q. Jiang, Alexandre Sablayrolles, Amélie Héliou, Amélie Martin, Anmol Agarwal, Antoine Roux, Arthur Darcet, Arthur Mensch, Baptiste Bout, Baptiste Rozière, Baudouin De Monicault, Chris Bamford, Christian Wallenwein, Christophe Renaudin, Clémence Lanfranchi, Darius Dabert, Devendra Singh Chaplot, Devon Mizelle, Diego de las Casas, Elliot Chane-Sane, Emilien Fugier, Emma Bou Hanna, Gabrielle Berrada, Gauthier Delerce, Gauthier Guinet, Georgii Novikov, Guillaume Martin, Himanshu Jaju, Jan Ludziejewski, Jason Rute, Jean-Hadrien Chabran, Jessica Chudnovsky, Joachim Studnia, Joep Barmentlo, Jonas Amar, Josselin Somerville Roberts, Julien Denize, Karan Saxena, Karmesh Yadav, Kartik Khandelwal, Kush Jain, Lélio Renard Lavaud, Léonard Blier, Lingxiao Zhao, Louis Martin, Lucile Saulnier, Luyu Gao, Marie Pellat, Mathilde Guillaumin, Mathis Felardos, Matthieu Dinot, Maxime Darrin, Maximilian Augustin, Mickaël Seznec, Neha Gupta, Nikhil Raghuraman, Olivier Duchenne, Patricia Wang, Patryk Saffer, Paul Jacob, Paul Wambergue, Paula Kurylowicz, Philomène Chagniot, Pierre Stock, Pravesh Agrawal, Rémi Delacourt, Romain Sauvestre, Roman Soletskyi, Sagar Vaze, Sandeep Subramanian, Saurabh Garg, Shashwat Dalal, Siddharth Gandhi, Sumukh Aithal, Szymon Antoniak, Teven Le Scao, Thibault Schueller, Thibaut Lavril, Thomas Robert, Thomas Wang, Timothée Lacroix, Tom Bewley, Valeriia Nemychnikova, Victor Paltz, Virgile Richard, Wen-Ding Li, William Marshall, Xuanyu Zhang, Yihan Wan, Yunhao Tang
cs.AI
papers.abstract
Wir präsentieren Voxtral Mini und Voxtral Small, zwei multimodale Audio-Chat-Modelle.
Voxtral wurde darauf trainiert, sowohl gesprochene Audiodaten als auch Textdokumente zu verstehen,
und erzielt dabei state-of-the-art Leistungen in einer Vielzahl von Audio-Benchmarks,
während gleichzeitig starke Textfähigkeiten erhalten bleiben. Voxtral Small übertrifft
mehrere Closed-Source-Modelle, ist jedoch klein genug, um lokal ausgeführt zu werden.
Ein Kontextfenster von 32K ermöglicht es dem Modell, Audiodateien mit einer Dauer von bis zu 40 Minuten
sowie lange, mehrschrittige Konversationen zu verarbeiten. Zudem stellen wir drei Benchmarks zur Verfügung,
um das Sprachverständnis von Modellen in Bezug auf Wissen und Trivia zu bewerten.
Beide Voxtral-Modelle werden unter der Apache-2.0-Lizenz veröffentlicht.
English
We present Voxtral Mini and Voxtral Small, two multimodal audio chat models.
Voxtral is trained to comprehend both spoken audio and text documents,
achieving state-of-the-art performance across a diverse range of audio
benchmarks, while preserving strong text capabilities. Voxtral Small
outperforms a number of closed-source models, while being small enough to run
locally. A 32K context window enables the model to handle audio files up to 40
minutes in duration and long multi-turn conversations. We also contribute three
benchmarks for evaluating speech understanding models on knowledge and trivia.
Both Voxtral models are released under Apache 2.0 license.