ChatPaper.aiChatPaper

AnalogRetriever: Het Leren van Cross-Modale Representaties voor het Ophalen van Analoge Schakelingen

AnalogRetriever: Learning Cross-Modal Representations for Analog Circuit Retrieval

April 25, 2026
Auteurs: Yihan Wang, Lei Li, Yao Lai, Jing Wang, Yan Lu
cs.AI

Samenvatting

Analoge schakelingontwerp is sterk afhankelijk van het hergebruik van bestaande intellectuele eigendomsblokken (IP), maar het zoeken over heterogene representaties zoals SPICE-netlists, schema's en functionele beschrijvingen blijft een uitdaging. Bestaande methoden zijn grotendeels beperkt tot exacte matching binnen één modaliteit, waarbij ze de semantische relaties tussen modaliteiten niet kunnen vastleggen. Om deze kloof te overbruggen, presenteren we AnalogRetriever, een uniform retrieval-framework met drie modaliteiten voor het zoeken naar analoge schakelingen. We bouwen eerst een hoogwaardige dataset op basis van Masala-CHAI via een pijplijn met twee reparatiestappen, waardoor het compilatiesucces van netlists wordt verhoogd van 22% naar 100%. Gebaseerd op deze fundering codeert AnalogRetriever schema's en beschrijvingen met een vision-language model en netlists met een port-aware relationeel grafisch convolutioneel netwerk, waarbij alle drie de modaliteiten in een gedeelde embeddedruimte worden gemapt via curriculum contrastief leren. Experimenten tonen aan dat AnalogRetriever een gemiddelde Recall@1 van 75,2% bereikt over alle zes de kruismodale retrievalrichtingen, wat aanzienlijk beter is dan bestaande baseline-methoden. Wanneer geïntegreerd in het AnalogCoder agent-framework als een retrieval-augmented generation-module, verbetert het consistent de functionele slagingspercentages en maakt het de voltooiing van voorheen onopgeloste taken mogelijk. Onze code en dataset zullen worden vrijgegeven.
English
Analog circuit design relies heavily on reusing existing intellectual property (IP), yet searching across heterogeneous representations such as SPICE netlists, schematics, and functional descriptions remains challenging. Existing methods are largely limited to exact matching within a single modality, failing to capture cross-modal semantic relationships. To bridge this gap, we present AnalogRetriever, a unified tri-modal retrieval framework for analog circuit search. We first build a high-quality dataset on top of Masala-CHAI through a two-stage repair pipeline that raises the netlist compile rate from 22\% to 100\%. Built on this foundation, AnalogRetriever encodes schematics and descriptions with a vision-language model and netlists with a port-aware relational graph convolutional network, mapping all three modalities into a shared embedding space via curriculum contrastive learning. Experiments show that AnalogRetriever achieves an average Recall@1 of 75.2\% across all six cross-modal retrieval directions, significantly outperforming existing baselines. When integrated into the AnalogCoder agentic framework as a retrieval-augmented generation module, it consistently improves functional pass rates and enables previously unsolved tasks to be completed. Our code and dataset will be released.
PDF21May 5, 2026