CRINN : Apprentissage par Renforcement Contrastif pour la Recherche des Plus Proches Voisins Approximatifs
CRINN: Contrastive Reinforcement Learning for Approximate Nearest Neighbor Search
August 4, 2025
papers.authors: Xiaoya Li, Xiaofei Sun, Albert Wang, Chris Shum, Jiwei Li
cs.AI
papers.abstract
Les algorithmes de recherche approximative des plus proches voisins (ANNS) sont devenus de plus en plus critiques pour les applications récentes de l'IA, en particulier dans la génération augmentée par la recherche (RAG) et les applications d'agents basés sur des LLM. Dans cet article, nous présentons CRINN, un nouveau paradigme pour les algorithmes ANNS. CRINN traite l'optimisation ANNS comme un problème d'apprentissage par renforcement où la vitesse d'exécution sert de signal de récompense. Cette approche permet la génération automatique d'implémentations ANNS progressivement plus rapides tout en respectant les contraintes de précision. Notre évaluation expérimentale démontre l'efficacité de CRINN sur six ensembles de données de référence NNS largement utilisés. Par rapport aux algorithmes ANNS open-source de pointe, CRINN obtient les meilleures performances sur trois d'entre eux (GIST-960-Euclidean, MNIST-784-Euclidean et GloVe-25-angular), et se classe à égalité en première place sur deux d'entre eux (SIFT-128-Euclidean et GloVe-25-angular). Les implications du succès de CRINN vont bien au-delà de l'optimisation ANNS : il valide que les LLM augmentés par l'apprentissage par renforcement peuvent fonctionner comme un outil efficace pour automatiser des optimisations algorithmiques sophistiquées qui nécessitent des connaissances spécialisées et un affinement manuel laborieux. Le code est disponible à l'adresse suivante : https://github.com/deepreinforce-ai/CRINN
English
Approximate nearest-neighbor search (ANNS) algorithms have become
increasingly critical for recent AI applications, particularly in
retrieval-augmented generation (RAG) and agent-based LLM applications. In this
paper, we present CRINN, a new paradigm for ANNS algorithms. CRINN treats ANNS
optimization as a reinforcement learning problem where execution speed serves
as the reward signal. This approach enables the automatic generation of
progressively faster ANNS implementations while maintaining accuracy
constraints. Our experimental evaluation demonstrates CRINN's effectiveness
across six widely-used NNS benchmark datasets. When compared against
state-of-the-art open-source ANNS algorithms, CRINN achieves best performance
on three of them (GIST-960-Euclidean, MNIST-784-Euclidean, and
GloVe-25-angular), and tied for first place on two of them (SIFT-128-Euclidean
and GloVe-25-angular). The implications of CRINN's success reach well beyond
ANNS optimization: It validates that LLMs augmented with reinforcement learning
can function as an effective tool for automating sophisticated algorithmic
optimizations that demand specialized knowledge and labor-intensive manual
refinement.Code can be found at https://github.com/deepreinforce-ai/CRINN