ChatPaper.aiChatPaper

Transformador Convolucional de Conjuntos

Convolutional Set Transformer

September 26, 2025
Autores: Federico Chinello, Giacomo Boracchi
cs.AI

Resumo

Apresentamos o Convolutional Set Transformer (CST), uma nova arquitetura neural projetada para processar conjuntos de imagens de cardinalidade arbitrária que são visualmente heterogêneos, mas compartilham semânticas de alto nível - como uma categoria, cena ou conceito comum. As redes existentes que processam conjuntos, por exemplo, Deep Sets e Set Transformer, são limitadas a entradas vetoriais e não podem lidar diretamente com tensores de imagem 3D. Como resultado, elas precisam ser combinadas com um extrator de características, tipicamente uma CNN, que codifica as imagens em embeddings antes que a rede de conjunto possa modelar as relações entre as imagens. Em contraste, o CST opera diretamente em tensores de imagem 3D, realizando a extração de características e a modelagem contextual simultaneamente, permitindo assim sinergias entre os dois processos. Esse design resulta em desempenho superior em tarefas como Classificação de Conjuntos e Detecção de Anomalias em Conjuntos, além de fornecer compatibilidade nativa com métodos de explicabilidade de CNNs, como Grad-CAM, ao contrário de abordagens concorrentes que permanecem opacas. Por fim, demonstramos que os CSTs podem ser pré-treinados em grandes conjuntos de dados e posteriormente adaptados a novos domínios e tarefas por meio de esquemas padrão de Transfer Learning. Para apoiar pesquisas futuras, disponibilizamos o CST-15, um backbone de CST pré-treinado no ImageNet (https://github.com/chinefed/convolutional-set-transformer).
English
We introduce the Convolutional Set Transformer (CST), a novel neural architecture designed to process image sets of arbitrary cardinality that are visually heterogeneous yet share high-level semantics - such as a common category, scene, or concept. Existing set-input networks, e.g., Deep Sets and Set Transformer, are limited to vector inputs and cannot directly handle 3D image tensors. As a result, they must be cascaded with a feature extractor, typically a CNN, which encodes images into embeddings before the set-input network can model inter-image relationships. In contrast, CST operates directly on 3D image tensors, performing feature extraction and contextual modeling simultaneously, thereby enabling synergies between the two processes. This design yields superior performance in tasks such as Set Classification and Set Anomaly Detection and further provides native compatibility with CNN explainability methods such as Grad-CAM, unlike competing approaches that remain opaque. Finally, we show that CSTs can be pre-trained on large-scale datasets and subsequently adapted to new domains and tasks through standard Transfer Learning schemes. To support further research, we release CST-15, a CST backbone pre-trained on ImageNet (https://github.com/chinefed/convolutional-set-transformer).
PDF12October 1, 2025