ChatPaper.aiChatPaper

CRINN: Apprendimento per Rinforzo Contrastivo per la Ricerca dei Vicini Più Vicini Approssimati

CRINN: Contrastive Reinforcement Learning for Approximate Nearest Neighbor Search

August 4, 2025
Autori: Xiaoya Li, Xiaofei Sun, Albert Wang, Chris Shum, Jiwei Li
cs.AI

Abstract

Gli algoritmi di ricerca approssimata del vicino più prossimo (ANNS) sono diventati sempre più cruciali per le recenti applicazioni di intelligenza artificiale, in particolare nella generazione aumentata da recupero (RAG) e nelle applicazioni di LLM basate su agenti. In questo articolo presentiamo CRINN, un nuovo paradigma per gli algoritmi ANNS. CRINN tratta l'ottimizzazione ANNS come un problema di apprendimento per rinforzo, dove la velocità di esecuzione funge da segnale di ricompensa. Questo approccio consente la generazione automatica di implementazioni ANNS progressivamente più veloci, mantenendo i vincoli di accuratezza. La nostra valutazione sperimentale dimostra l'efficacia di CRINN su sei ampiamente utilizzati dataset di benchmark NNS. Rispetto agli algoritmi ANNS open-source all'avanguardia, CRINN ottiene le migliori prestazioni su tre di essi (GIST-960-Euclidean, MNIST-784-Euclidean e GloVe-25-angular), e si piazza a pari merito al primo posto su due di essi (SIFT-128-Euclidean e GloVe-25-angular). Le implicazioni del successo di CRINN vanno ben oltre l'ottimizzazione ANNS: convalida che gli LLM potenziati dall'apprendimento per rinforzo possono funzionare come uno strumento efficace per automatizzare sofisticate ottimizzazioni algoritmiche che richiedono conoscenze specializzate e affinamenti manuali laboriosi. Il codice è disponibile all'indirizzo https://github.com/deepreinforce-ai/CRINN.
English
Approximate nearest-neighbor search (ANNS) algorithms have become increasingly critical for recent AI applications, particularly in retrieval-augmented generation (RAG) and agent-based LLM applications. In this paper, we present CRINN, a new paradigm for ANNS algorithms. CRINN treats ANNS optimization as a reinforcement learning problem where execution speed serves as the reward signal. This approach enables the automatic generation of progressively faster ANNS implementations while maintaining accuracy constraints. Our experimental evaluation demonstrates CRINN's effectiveness across six widely-used NNS benchmark datasets. When compared against state-of-the-art open-source ANNS algorithms, CRINN achieves best performance on three of them (GIST-960-Euclidean, MNIST-784-Euclidean, and GloVe-25-angular), and tied for first place on two of them (SIFT-128-Euclidean and GloVe-25-angular). The implications of CRINN's success reach well beyond ANNS optimization: It validates that LLMs augmented with reinforcement learning can function as an effective tool for automating sophisticated algorithmic optimizations that demand specialized knowledge and labor-intensive manual refinement.Code can be found at https://github.com/deepreinforce-ai/CRINN
PDF132August 6, 2025