ChatPaper.aiChatPaper

zELO: Método de Treinamento Inspirado no ELO para Modelos de Reordenamento e de Embedding

zELO: ELO-inspired Training Method for Rerankers and Embedding Models

September 16, 2025
Autores: Nicholas Pipitone, Ghita Houir Alami, Advaith Avadhanam, Anton Kaminskyi, Ashley Khoo
cs.AI

Resumo

Apresentamos uma nova metodologia de treinamento denominada zELO, que otimiza o desempenho de recuperação por meio da análise de que tarefas de classificação são estaticamente equivalentes a um modelo de Thurstone. Com base no método zELO, utilizamos dados não supervisionados para treinar uma série de modelos de reclassificação de última geração com pesos abertos: zerank-1 e zerank-1-small. Esses modelos alcançam as pontuações mais altas de recuperação em múltiplos domínios, incluindo finanças, jurídico, código e STEM, superando reclassificadores proprietários de código fechado tanto em NDCG@10 quanto em Recall. Esses modelos também demonstram grande versatilidade, mantendo seu desempenho zero-shot em conjuntos de dados fora do domínio e de clientes privados. Os dados de treinamento incluíram 112.000 consultas e 100 documentos por consulta, e foram treinados de ponta a ponta a partir de consultas e documentos não anotados em menos de 10.000 horas-H100.
English
We introduce a novel training methodology named zELO, which optimizes retrieval performance via the analysis that ranking tasks are statically equivalent to a Thurstone model. Based on the zELO method, we use unsupervised data in order train a suite of state-of-the-art open-weight reranker models: zerank-1 and zerank-1-small. These models achieve the highest retrieval scores in multiple domains, including finance, legal, code, and STEM, outperforming closed-source proprietary rerankers on both NDCG@10 and Recall. These models also demonstrate great versatility, maintaining their 0-shot performance on out-of-domain and private customer datasets. The training data included 112,000 queries and 100 documents per query, and was trained end-to-end from unannotated queries and documents in less than 10,000 H100-hours.
PDF42September 19, 2025