ChatPaper.aiChatPaper

Selezione Creativa Automatica con Abbinamento Cross-Modale

Automatic Creative Selection with Cross-Modal Matching

February 28, 2024
Autori: Alex Kim, Jia Huang, Rob Monarch, Jerry Kwac, Anikesh Kamath, Parmeshwar Khurd, Kailash Thiyagarajan, Goodman Gu
cs.AI

Abstract

Gli sviluppatori di applicazioni promuovono le loro App creando pagine prodotto con immagini dell'App e facendo offerte sui termini di ricerca. È quindi fondamentale che le immagini dell'App siano altamente pertinenti ai termini di ricerca. Le soluzioni a questo problema richiedono un modello di corrispondenza immagine-testo per prevedere la qualità della corrispondenza tra l'immagine scelta e i termini di ricerca. In questo lavoro, presentiamo un approccio innovativo per abbinare un'immagine di App ai termini di ricerca basato sul fine-tuning di un modello LXMERT pre-addestrato. Dimostriamo che, rispetto al modello CLIP e a una baseline che utilizza un modello Transformer per i termini di ricerca e un modello ResNet per le immagini, miglioriamo significativamente l'accuratezza della corrispondenza. Valutiamo il nostro approccio utilizzando due set di etichette: coppie (immagine, termine di ricerca) associate agli inserzionisti per una determinata applicazione e valutazioni umane sulla pertinenza tra coppie (immagine, termine di ricerca). Il nostro approccio raggiunge un punteggio AUC di 0,96 per la verità di base associata agli inserzionisti, superando la baseline transformer+ResNet e il modello CLIP fine-tuned rispettivamente dell'8% e del 14%. Per la verità di base etichettata dagli esseri umani, il nostro approccio raggiunge un punteggio AUC di 0,95, superando la baseline transformer+ResNet e il modello CLIP fine-tuned rispettivamente del 16% e del 17%.
English
Application developers advertise their Apps by creating product pages with App images, and bidding on search terms. It is then crucial for App images to be highly relevant with the search terms. Solutions to this problem require an image-text matching model to predict the quality of the match between the chosen image and the search terms. In this work, we present a novel approach to matching an App image to search terms based on fine-tuning a pre-trained LXMERT model. We show that compared to the CLIP model and a baseline using a Transformer model for search terms, and a ResNet model for images, we significantly improve the matching accuracy. We evaluate our approach using two sets of labels: advertiser associated (image, search term) pairs for a given application, and human ratings for the relevance between (image, search term) pairs. Our approach achieves 0.96 AUC score for advertiser associated ground truth, outperforming the transformer+ResNet baseline and the fine-tuned CLIP model by 8% and 14%. For human labeled ground truth, our approach achieves 0.95 AUC score, outperforming the transformer+ResNet baseline and the fine-tuned CLIP model by 16% and 17%.
PDF91February 8, 2026