zELO: Método de entrenamiento inspirado en ELO para modelos de reordenamiento y de incrustación
zELO: ELO-inspired Training Method for Rerankers and Embedding Models
September 16, 2025
Autores: Nicholas Pipitone, Ghita Houir Alami, Advaith Avadhanam, Anton Kaminskyi, Ashley Khoo
cs.AI
Resumen
Presentamos una metodología de entrenamiento novedosa denominada zELO, que optimiza el rendimiento en tareas de recuperación mediante el análisis de que las tareas de clasificación son estáticamente equivalentes a un modelo de Thurstone. Basándonos en el método zELO, utilizamos datos no supervisados para entrenar un conjunto de modelos de reordenamiento de última generación con pesos abiertos: zerank-1 y zerank-1-small. Estos modelos alcanzan los puntajes más altos en recuperación en múltiples dominios, incluyendo finanzas, derecho, código y STEM, superando a los reordenadores propietarios de código cerrado tanto en NDCG@10 como en Recall. Estos modelos también demuestran una gran versatilidad, manteniendo su rendimiento en 0-shot en conjuntos de datos fuera de dominio y en datos privados de clientes. Los datos de entrenamiento incluyeron 112,000 consultas y 100 documentos por consulta, y se entrenaron de extremo a extremo a partir de consultas y documentos no anotados en menos de 10,000 horas-H100.
English
We introduce a novel training methodology named zELO, which optimizes
retrieval performance via the analysis that ranking tasks are statically
equivalent to a Thurstone model. Based on the zELO method, we use unsupervised
data in order train a suite of state-of-the-art open-weight reranker models:
zerank-1 and zerank-1-small. These models achieve the highest retrieval scores
in multiple domains, including finance, legal, code, and STEM, outperforming
closed-source proprietary rerankers on both NDCG@10 and Recall. These models
also demonstrate great versatility, maintaining their 0-shot performance on
out-of-domain and private customer datasets. The training data included 112,000
queries and 100 documents per query, and was trained end-to-end from
unannotated queries and documents in less than 10,000 H100-hours.