ChatPaper.aiChatPaper

AnalogRetriever: Lernen cross-modaler Repräsentationen für das Retrieval analoger Schaltungen

AnalogRetriever: Learning Cross-Modal Representations for Analog Circuit Retrieval

April 25, 2026
Autoren: Yihan Wang, Lei Li, Yao Lai, Jing Wang, Yan Lu
cs.AI

Zusammenfassung

Der Entwurf analoger Schaltungen ist stark auf die Wiederverwendung vorhandener Intellectual Properties (IP) angewiesen, doch die Suche über heterogene Darstellungen wie SPICE-Netzlisten, Schaltpläne und funktionale Beschreibungen bleibt herausfordernd. Bestehende Methoden beschränken sich weitgehend auf exakte Übereinstimmungen innerhalb einer einzigen Modalität und erfassen keine semantischen Beziehungen zwischen verschiedenen Modalitäten. Um diese Lücke zu schließen, stellen wir AnalogRetriever vor, ein einheitliches tri-modales Retrieval-Framework für die Analogschaltungssuche. Zunächst erstellen wir einen hochwertigen Datensatz auf Basis von Masala-CHAI durch eine zweistufige Reparatur-Pipeline, die die Kompilierrate von Netzlisten von 22\% auf 100\% erhöht. Auf dieser Grundlage kodiert AnalogRetriever Schaltpläne und Beschreibungen mit einem Vision-Language-Modell sowie Netzlisten mit einem portbewussten relationalen Graph Convolutional Network, wobei alle drei Modalitäten durch curriculum-basiertes kontrastives Lernen in einen gemeinsamen Einbettungsraum abgebildet werden. Experimente zeigen, dass AnalogRetriever einen durchschnittlichen Recall@1 von 75,2\% über alle sechs cross-modalen Retrieval-Richtungen erreicht und damit bestehende Baseline-Methoden signifikant übertrifft. Als Retrieval-Augmented-Generation-Modul in das AnalogCoder-Agentenframework integriert, verbessert es konsistent die funktionalen Passraten und ermöglicht die Lösung zuvor ungelöster Aufgaben. Unser Code und Datensatz werden veröffentlicht.
English
Analog circuit design relies heavily on reusing existing intellectual property (IP), yet searching across heterogeneous representations such as SPICE netlists, schematics, and functional descriptions remains challenging. Existing methods are largely limited to exact matching within a single modality, failing to capture cross-modal semantic relationships. To bridge this gap, we present AnalogRetriever, a unified tri-modal retrieval framework for analog circuit search. We first build a high-quality dataset on top of Masala-CHAI through a two-stage repair pipeline that raises the netlist compile rate from 22\% to 100\%. Built on this foundation, AnalogRetriever encodes schematics and descriptions with a vision-language model and netlists with a port-aware relational graph convolutional network, mapping all three modalities into a shared embedding space via curriculum contrastive learning. Experiments show that AnalogRetriever achieves an average Recall@1 of 75.2\% across all six cross-modal retrieval directions, significantly outperforming existing baselines. When integrated into the AnalogCoder agentic framework as a retrieval-augmented generation module, it consistently improves functional pass rates and enables previously unsolved tasks to be completed. Our code and dataset will be released.
PDF21May 5, 2026