ChatPaper.aiChatPaper

Hypencoder: Hiperredes para Recuperación de Información

Hypencoder: Hypernetworks for Information Retrieval

February 7, 2025
Autores: Julian Killingback, Hansi Zeng, Hamed Zamani
cs.AI

Resumen

La gran mayoría de los modelos de recuperación dependen de productos internos de vectores para generar un puntaje de relevancia entre una consulta y un documento. Esto limita naturalmente la expresividad del puntaje de relevancia que se puede utilizar. Proponemos un nuevo paradigma, en lugar de producir un vector para representar la consulta, generamos una pequeña red neuronal que actúa como una función de relevancia aprendida. Esta pequeña red neuronal recibe una representación del documento, en este artículo utilizamos un solo vector, y produce un puntaje de relevancia escalar. Para crear la pequeña red neuronal, utilizamos un hiperred, una red que produce los pesos de otras redes, como nuestro codificador de consulta o como lo llamamos un Hipcodificador. Experimentos en tareas de búsqueda en dominio muestran que el Hipcodificador es capaz de superar significativamente a modelos de recuperación densa sólidos y tiene métricas más altas que modelos de reordenamiento y modelos de un orden de magnitud mayor. Además, se demuestra que el Hipcodificador generaliza bien a tareas de búsqueda fuera de dominio. Para evaluar el alcance de las capacidades del Hipcodificador, evaluamos un conjunto de tareas de recuperación difíciles que incluyen recuperación en la punta de la lengua y tareas de seguimiento de instrucciones, y encontramos que la brecha de rendimiento se amplía sustancialmente en comparación con tareas de recuperación estándar. Además, para demostrar la practicidad de nuestro método, implementamos un algoritmo de búsqueda aproximada y demostramos que nuestro modelo puede buscar 8.8 millones de documentos en menos de 60 ms.
English
The vast majority of retrieval models depend on vector inner products to produce a relevance score between a query and a document. This naturally limits the expressiveness of the relevance score that can be employed. We propose a new paradigm, instead of producing a vector to represent the query we produce a small neural network which acts as a learned relevance function. This small neural network takes in a representation of the document, in this paper we use a single vector, and produces a scalar relevance score. To produce the little neural network we use a hypernetwork, a network that produce the weights of other networks, as our query encoder or as we call it a Hypencoder. Experiments on in-domain search tasks show that Hypencoder is able to significantly outperform strong dense retrieval models and has higher metrics then reranking models and models an order of magnitude larger. Hypencoder is also shown to generalize well to out-of-domain search tasks. To assess the extent of Hypencoder's capabilities, we evaluate on a set of hard retrieval tasks including tip-of-the-tongue retrieval and instruction-following retrieval tasks and find that the performance gap widens substantially compared to standard retrieval tasks. Furthermore, to demonstrate the practicality of our method we implement an approximate search algorithm and show that our model is able to search 8.8M documents in under 60ms.

Summary

AI-Generated Summary

PDF112February 12, 2025