zELO: Método de Treinamento Inspirado no ELO para Modelos de Reordenamento e de Embedding
zELO: ELO-inspired Training Method for Rerankers and Embedding Models
September 16, 2025
Autores: Nicholas Pipitone, Ghita Houir Alami, Advaith Avadhanam, Anton Kaminskyi, Ashley Khoo
cs.AI
Resumo
Apresentamos uma nova metodologia de treinamento denominada zELO, que otimiza o desempenho de recuperação por meio da análise de que tarefas de classificação são estaticamente equivalentes a um modelo de Thurstone. Com base no método zELO, utilizamos dados não supervisionados para treinar uma série de modelos de reclassificação de última geração com pesos abertos: zerank-1 e zerank-1-small. Esses modelos alcançam as pontuações mais altas de recuperação em múltiplos domínios, incluindo finanças, jurídico, código e STEM, superando reclassificadores proprietários de código fechado tanto em NDCG@10 quanto em Recall. Esses modelos também demonstram grande versatilidade, mantendo seu desempenho zero-shot em conjuntos de dados fora do domínio e de clientes privados. Os dados de treinamento incluíram 112.000 consultas e 100 documentos por consulta, e foram treinados de ponta a ponta a partir de consultas e documentos não anotados em menos de 10.000 horas-H100.
English
We introduce a novel training methodology named zELO, which optimizes
retrieval performance via the analysis that ranking tasks are statically
equivalent to a Thurstone model. Based on the zELO method, we use unsupervised
data in order train a suite of state-of-the-art open-weight reranker models:
zerank-1 and zerank-1-small. These models achieve the highest retrieval scores
in multiple domains, including finance, legal, code, and STEM, outperforming
closed-source proprietary rerankers on both NDCG@10 and Recall. These models
also demonstrate great versatility, maintaining their 0-shot performance on
out-of-domain and private customer datasets. The training data included 112,000
queries and 100 documents per query, and was trained end-to-end from
unannotated queries and documents in less than 10,000 H100-hours.