AnalogRetriever: Обучение кросс-модальных представлений для поиска аналоговых схем
AnalogRetriever: Learning Cross-Modal Representations for Analog Circuit Retrieval
April 25, 2026
Авторы: Yihan Wang, Lei Li, Yao Lai, Jing Wang, Yan Lu
cs.AI
Аннотация
Проектирование аналоговых схем сильно зависит от повторного использования существующих блоков интеллектуальной собственности (IP), однако поиск по разнородным представлениям, таким как SPICE-списки соединений, схемы и функциональные описания, остается сложной задачей. Существующие методы в основном ограничены точным сопоставлением в рамках одной модальности и не способны улавливать кросс-модальные семантические связи. Чтобы устранить этот разрыв, мы представляем AnalogRetriever — унифицированную трехмодальную систему поиска для аналоговых схем. Сначала мы создаем высококачественный набор данных на основе Masala-CHAI с помощью двухэтапного конвейера исправления, который повышает процент компилируемых списков соединений с 22% до 100%. На этой основе AnalogRetriever кодирует схемы и описания с помощью визуально-языковой модели, а списки соединений — с помощью графовой сверточной сети с учетом портов, отображая все три модальности в общее пространство векторных представлений посредством контрастного обучения по учебному плану. Эксперименты показывают, что AnalogRetriever достигает среднего значения Recall@1 в 75,2% по всем шести направлениям кросс-модального поиска, значительно превосходя существующие базовые методы. При интеграции в агентский фреймворк AnalogCoder в качестве модуля поискового расширения генерации система стабильно повышает процент успешного выполнения функциональных тестов и позволяет решать ранее невыполнимые задачи. Наш код и набор данных будут опубликованы.
English
Analog circuit design relies heavily on reusing existing intellectual property (IP), yet searching across heterogeneous representations such as SPICE netlists, schematics, and functional descriptions remains challenging. Existing methods are largely limited to exact matching within a single modality, failing to capture cross-modal semantic relationships. To bridge this gap, we present AnalogRetriever, a unified tri-modal retrieval framework for analog circuit search. We first build a high-quality dataset on top of Masala-CHAI through a two-stage repair pipeline that raises the netlist compile rate from 22\% to 100\%. Built on this foundation, AnalogRetriever encodes schematics and descriptions with a vision-language model and netlists with a port-aware relational graph convolutional network, mapping all three modalities into a shared embedding space via curriculum contrastive learning. Experiments show that AnalogRetriever achieves an average Recall@1 of 75.2\% across all six cross-modal retrieval directions, significantly outperforming existing baselines. When integrated into the AnalogCoder agentic framework as a retrieval-augmented generation module, it consistently improves functional pass rates and enables previously unsolved tasks to be completed. Our code and dataset will be released.