ChatPaper.aiChatPaper

AnalogRetriever: Aprendizaje de Representaciones Cross-Modales para la Recuperación de Circuitos Analógicos

AnalogRetriever: Learning Cross-Modal Representations for Analog Circuit Retrieval

April 25, 2026
Autores: Yihan Wang, Lei Li, Yao Lai, Jing Wang, Yan Lu
cs.AI

Resumen

El diseño de circuitos analógicos depende en gran medida de la reutilización de propiedad intelectual (IP) existente; sin embargo, la búsqueda a través de representaciones heterogéneas, como listas de conexiones SPICE, esquemáticos y descripciones funcionales, sigue siendo un desafío. Los métodos existentes se limitan principalmente a la coincidencia exacta dentro de una única modalidad, sin capturar las relaciones semánticas multimodales. Para cerrar esta brecha, presentamos AnalogRetriever, un marco de recuperación unificado trimodal para la búsqueda de circuitos analógicos. Primero construimos un conjunto de datos de alta calidad sobre Masala-CHAI mediante un proceso de reparación en dos etapas que eleva la tasa de compilación de las listas de conexiones del 22% al 100%. Sobre esta base, AnalogRetriever codifica los esquemáticos y las descripciones con un modelo de visión y lenguaje, y las listas de conexiones con una red neuronal convolucional relacional consciente de los puertos, mapeando las tres modalidades en un espacio de incrustación compartido mediante aprendizaje contrastivo curricular. Los experimentos muestran que AnalogRetriever logra una Recall@1 promedio del 75.2% en las seis direcciones de recuperación multimodal, superando significativamente a los métodos de referencia existentes. Cuando se integra en el marco agéntico AnalogCoder como un módulo de generación aumentada por recuperación, mejora consistentemente las tasas de aprobación funcional y permite completar tareas que antes no se podían resolver. Nuestro código y conjunto de datos serán publicados.
English
Analog circuit design relies heavily on reusing existing intellectual property (IP), yet searching across heterogeneous representations such as SPICE netlists, schematics, and functional descriptions remains challenging. Existing methods are largely limited to exact matching within a single modality, failing to capture cross-modal semantic relationships. To bridge this gap, we present AnalogRetriever, a unified tri-modal retrieval framework for analog circuit search. We first build a high-quality dataset on top of Masala-CHAI through a two-stage repair pipeline that raises the netlist compile rate from 22\% to 100\%. Built on this foundation, AnalogRetriever encodes schematics and descriptions with a vision-language model and netlists with a port-aware relational graph convolutional network, mapping all three modalities into a shared embedding space via curriculum contrastive learning. Experiments show that AnalogRetriever achieves an average Recall@1 of 75.2\% across all six cross-modal retrieval directions, significantly outperforming existing baselines. When integrated into the AnalogCoder agentic framework as a retrieval-augmented generation module, it consistently improves functional pass rates and enables previously unsolved tasks to be completed. Our code and dataset will be released.
PDF21May 5, 2026