ChatPaper.aiChatPaper

AnalogRetriever: アナログ回路検索のためのクロスモーダル表現学習

AnalogRetriever: Learning Cross-Modal Representations for Analog Circuit Retrieval

April 25, 2026
著者: Yihan Wang, Lei Li, Yao Lai, Jing Wang, Yan Lu
cs.AI

要旨

アナログ回路設計では、既存の知的財産(IP)の再利用が重要であるものの、SPICEネットリスト、回路図、機能記述といった異種表現にわたる検索は依然として困難な課題である。既存手法は単一モダリティ内での完全一致が主流であり、モダリティを超えた意味的関係の捕捉が不十分である。この課題を解決するため、我々はアナログ回路検索のための統一的三モーダル検索フレームワーク「AnalogRetriever」を提案する。まず、Masala-CHAI上に高品質データセットを構築し、ネットリストのコンパイル成功率を22%から100%に向上させる二段階修復パイプラインを確立した。この基盤に基づき、AnalogRetrieverは回路図と機能記述を視覚言語モデルで、ネットリストをポート認識型関係グラフ畳み込みネットワークで符号化し、カリキュラム対比学習により三モダリティを共有埋め込み空間に写像する。実験結果では、6つのクロスモーダル検索方向全てにおいて平均Recall@1が75.2%を達成し、既存ベースラインを大幅に上回った。本手法を検索拡張生成モジュールとしてAnalogCoderエージェントフレームワークに統合した場合、機能テスト合格率が持続的に向上し、従来未解決だった課題の解決が可能となった。コード及びデータセットは公開予定である。
English
Analog circuit design relies heavily on reusing existing intellectual property (IP), yet searching across heterogeneous representations such as SPICE netlists, schematics, and functional descriptions remains challenging. Existing methods are largely limited to exact matching within a single modality, failing to capture cross-modal semantic relationships. To bridge this gap, we present AnalogRetriever, a unified tri-modal retrieval framework for analog circuit search. We first build a high-quality dataset on top of Masala-CHAI through a two-stage repair pipeline that raises the netlist compile rate from 22\% to 100\%. Built on this foundation, AnalogRetriever encodes schematics and descriptions with a vision-language model and netlists with a port-aware relational graph convolutional network, mapping all three modalities into a shared embedding space via curriculum contrastive learning. Experiments show that AnalogRetriever achieves an average Recall@1 of 75.2\% across all six cross-modal retrieval directions, significantly outperforming existing baselines. When integrated into the AnalogCoder agentic framework as a retrieval-augmented generation module, it consistently improves functional pass rates and enables previously unsolved tasks to be completed. Our code and dataset will be released.
PDF21May 5, 2026