Technisch Rapport Qwen2.5-1MQwen2.5-1M Technical Report
We introduceren Qwen2.5-1M, een reeks modellen die de contextlengte uitbreiden naar 1 miljoen tokens. Vergeleken met de vorige 128K-versie hebben de Qwen2.5-1M-modellen aanzienlijk verbeterde mogelijkheden voor lange contexten door lang-context voorafgaande training en nascholing. Belangrijke technieken zoals langdatasynthese, progressieve voorafgaande training en meertraps begeleid fijnafstemmen worden gebruikt om effectief de prestaties van lange contexten te verbeteren terwijl de trainingskosten worden verlaagd. Om het gebruik van modellen met lange contexten onder een breder gebruikerspubliek te bevorderen, presenteren we en stellen we onze inferentiekader open-source beschikbaar. Dit kader omvat een lengte-extrapolatiemethode die de modelcontextlengtes met minstens vier keer, of zelfs meer, kan uitbreiden zonder extra training. Om inferentiekosten te verlagen, implementeren we een schaarse aandachtmethode samen met geoptimaliseerde vooraf invullen in stukken voor implementatiescenario's en een methode voor schaarste-verfijning om de precisie te verbeteren. Daarnaast beschrijven we onze optimalisaties in de inferentiemotor, inclusief kerneloptimalisatie, pijplijnparallelisme en planningsoptimalisatie, die de algehele inferentieprestaties aanzienlijk verbeteren. Door gebruik te maken van ons inferentiekader behalen de Qwen2.5-1M-modellen een opmerkelijke 3x tot 7x versnelling van het voorinvullen in scenario's met 1 miljoen tokens aan context. Dit kader biedt een efficiënte en krachtige oplossing voor het ontwikkelen van toepassingen die lange-contextverwerking vereisen met open-source modellen. De Qwen2.5-1M-serie omvat momenteel de open-source modellen Qwen2.5-7B-Instruct-1M en Qwen2.5-14B-Instruct-1M, evenals het via API toegankelijke model Qwen2.5-Turbo. Evaluaties tonen aan dat Qwen2.5-1M-modellen aanzienlijk zijn verbeterd in taken met lange contexten zonder de prestaties in scenario's met korte contexten in gevaar te brengen. Specifiek presteert het Qwen2.5-14B-Instruct-1M-model aanzienlijk beter dan GPT-4o-mini in taken met lange contexten en ondersteunt contexten die acht keer langer zijn.