ChatPaper.aiChatPaper

Hypencoder: Hypernetzwerke für die Informationsabfrage

Hypencoder: Hypernetworks for Information Retrieval

February 7, 2025
Autoren: Julian Killingback, Hansi Zeng, Hamed Zamani
cs.AI

Zusammenfassung

Die überwiegende Mehrheit der Abrufmodelle basiert auf Vektor-Innenprodukten, um einen Relevanzwert zwischen einer Abfrage und einem Dokument zu erzeugen. Dies begrenzt natürlich die Ausdruckskraft des Relevanzwerts, der verwendet werden kann. Wir schlagen ein neues Paradigma vor: Anstatt einen Vektor zur Darstellung der Abfrage zu erzeugen, erstellen wir ein kleines neuronales Netzwerk, das als gelernte Relevanzfunktion fungiert. Dieses kleine neuronale Netzwerk nimmt eine Darstellung des Dokuments entgegen, in diesem Papier verwenden wir einen einzelnen Vektor, und erzeugt einen skalaren Relevanzwert. Um das kleine neuronale Netzwerk zu erzeugen, verwenden wir einen Hypernetzwerk, ein Netzwerk, das die Gewichte anderer Netzwerke erzeugt, als unseren Abfrageencoder oder wie wir ihn nennen einen Hypencoder. Experimente mit Suchaufgaben im selben Bereich zeigen, dass der Hypencoder signifikant bessere Leistungen erbringt als starke dichte Abrufmodelle und höhere Metriken aufweist als Neurangierungsmodelle und Modelle, die um eine Größenordnung größer sind. Der Hypencoder zeigt auch eine gute Verallgemeinerungsfähigkeit für Suchaufgaben außerhalb des Bereichs. Um den Umfang der Fähigkeiten des Hypencoders zu bewerten, evaluieren wir eine Reihe schwieriger Abrufaufgaben, darunter Abrufaufgaben am Rande des Bewusstseins und Anweisungsfolge-Abrufaufgaben, und stellen fest, dass die Leistungsdifferenz im Vergleich zu Standard-Abrufaufgaben erheblich zunimmt. Darüber hinaus implementieren wir einen approximativen Suchalgorithmus, um die Praktikabilität unserer Methode zu demonstrieren, und zeigen, dass unser Modell in der Lage ist, 8,8 Millionen Dokumente in weniger als 60 ms zu durchsuchen.
English
The vast majority of retrieval models depend on vector inner products to produce a relevance score between a query and a document. This naturally limits the expressiveness of the relevance score that can be employed. We propose a new paradigm, instead of producing a vector to represent the query we produce a small neural network which acts as a learned relevance function. This small neural network takes in a representation of the document, in this paper we use a single vector, and produces a scalar relevance score. To produce the little neural network we use a hypernetwork, a network that produce the weights of other networks, as our query encoder or as we call it a Hypencoder. Experiments on in-domain search tasks show that Hypencoder is able to significantly outperform strong dense retrieval models and has higher metrics then reranking models and models an order of magnitude larger. Hypencoder is also shown to generalize well to out-of-domain search tasks. To assess the extent of Hypencoder's capabilities, we evaluate on a set of hard retrieval tasks including tip-of-the-tongue retrieval and instruction-following retrieval tasks and find that the performance gap widens substantially compared to standard retrieval tasks. Furthermore, to demonstrate the practicality of our method we implement an approximate search algorithm and show that our model is able to search 8.8M documents in under 60ms.

Summary

AI-Generated Summary

PDF112February 12, 2025