Qwen2.5-Coder Technischer BerichtQwen2.5-Coder Technical Report
In diesem Bericht stellen wir die Qwen2.5-Coder-Serie vor, ein bedeutendes Upgrade von ihrem Vorgänger, CodeQwen1.5. Diese Serie umfasst zwei Modelle: Qwen2.5-Coder-1.5B und Qwen2.5-Coder-7B. Als ein auf Code spezialisiertes Modell basiert Qwen2.5-Coder auf der Qwen2.5-Architektur und setzt das Training auf einem umfangreichen Korpus von über 5,5 Billionen Tokens fort. Durch sorgfältige Datenbereinigung, skalierbare synthetische Datenerzeugung und ausgewogenes Datenmischen zeigt Qwen2.5-Coder beeindruckende Fähigkeiten zur Codegenerierung, während es gleichzeitig eine allgemeine Vielseitigkeit beibehält. Das Modell wurde auf eine Vielzahl von codebezogenen Aufgaben evaluiert und erzielt Spitzenleistungen (SOTA) in über 10 Benchmarks, darunter Codegenerierung, -vervollständigung, -begründung und -reparatur, wobei es kontinuierlich größere Modelle derselben Größe übertrifft. Wir sind der Überzeugung, dass die Veröffentlichung der Qwen2.5-Coder-Serie nicht nur die Grenzen der Forschung im Bereich der Code-Intelligenz erweitern wird, sondern auch, durch ihre großzügige Lizenzierung, eine breitere Akzeptanz durch Entwickler in realen Anwendungen fördern wird.