ChatPaper.aiChatPaper

AnalogRetriever : Apprentissage de représentations cross-modales pour la recherche de circuits analogiques

AnalogRetriever: Learning Cross-Modal Representations for Analog Circuit Retrieval

April 25, 2026
Auteurs: Yihan Wang, Lei Li, Yao Lai, Jing Wang, Yan Lu
cs.AI

Résumé

La conception de circuits analogiques repose largement sur la réutilisation de propriétés intellectuelles (IP) existantes, mais la recherche à travers des représentations hétérogènes telles que les netlists SPICE, les schémas et les descriptions fonctionnelles reste difficile. Les méthodes existantes se limitent principalement à la correspondance exacte au sein d'une seule modalité, échouant à capturer les relations sémantiques intermodales. Pour combler cette lacune, nous présentons AnalogRetriever, un framework de recherche unifié trimodal pour la recherche de circuits analogiques. Nous construisons d'abord un jeu de données de haute qualité basé sur Masala-CHAI grâce à un pipeline de réparation en deux étapes qui porte le taux de compilation des netlists de 22\% à 100\%. Sur cette base, AnalogRetriever encode les schémas et descriptions avec un modèle vision-langage, et les netlists avec un réseau de graphes convolutionnels relationnels sensible aux ports, projetant les trois modalités dans un espace d'embedding partagé via un apprentissage contrastif curriculaire. Les expériences montrent qu'AnalogRetriever atteint un Rappel@1 moyen de 75,2\% sur les six directions de recherche intermodales, surpassant significativement les méthodes de référence. Intégré dans le framework agentiel AnalogCoder en tant que module de génération augmentée par retrieval, il améliore constamment les taux de réussite fonctionnelle et permet la réalisation de tâches précédemment insolubles. Notre code et notre jeu de données seront publiés.
English
Analog circuit design relies heavily on reusing existing intellectual property (IP), yet searching across heterogeneous representations such as SPICE netlists, schematics, and functional descriptions remains challenging. Existing methods are largely limited to exact matching within a single modality, failing to capture cross-modal semantic relationships. To bridge this gap, we present AnalogRetriever, a unified tri-modal retrieval framework for analog circuit search. We first build a high-quality dataset on top of Masala-CHAI through a two-stage repair pipeline that raises the netlist compile rate from 22\% to 100\%. Built on this foundation, AnalogRetriever encodes schematics and descriptions with a vision-language model and netlists with a port-aware relational graph convolutional network, mapping all three modalities into a shared embedding space via curriculum contrastive learning. Experiments show that AnalogRetriever achieves an average Recall@1 of 75.2\% across all six cross-modal retrieval directions, significantly outperforming existing baselines. When integrated into the AnalogCoder agentic framework as a retrieval-augmented generation module, it consistently improves functional pass rates and enables previously unsolved tasks to be completed. Our code and dataset will be released.
PDF21May 5, 2026