Technisch Rapport Qwen2.5-CoderQwen2.5-Coder Technical Report
In dit rapport introduceren we de Qwen2.5-Coder serie, een significante upgrade van zijn voorganger, CodeQwen1.5. Deze serie omvat twee modellen: Qwen2.5-Coder-1.5B en Qwen2.5-Coder-7B. Als een op code gericht model is Qwen2.5-Coder gebouwd op de Qwen2.5 architectuur en blijft voortgezet getraind op een uitgebreid corpus van meer dan 5,5 biljoen tokens. Door zorgvuldige gegevensopruiming, schaalbare synthetische gegevensgeneratie en gebalanceerde gegevensmixing te gebruiken, toont Qwen2.5-Coder indrukwekkende codegeneratiecapaciteiten terwijl het algemene veelzijdigheid behoudt. Het model is geëvalueerd op een breed scala van codegerelateerde taken, waarbij het state-of-the-art (SOTA) prestaties behaalt op meer dan 10 benchmarks, waaronder codegeneratie, -aanvulling, redenering en reparatie, waarbij het consequent grotere modellen van dezelfde grootte overtreft. We geloven dat de release van de Qwen2.5-Coder serie niet alleen de grenzen van onderzoek in code-intelligentie zal verleggen, maar ook, door zijn permissieve licentieverlening, een bredere acceptatie door ontwikkelaars in real-world toepassingen zal aanmoedigen.