ChatPaper.aiChatPaper

FinTRec: Transformer-basierte einheitliche kontextbezogene Werbezielung und Personalisierung für Finanzanwendungen

FinTRec: Transformer Based Unified Contextual Ads Targeting and Personalization for Financial Applications

November 18, 2025
papers.authors: Dwipam Katariya, Snehita Varma, Akshat Shreemali, Benjamin Wu, Kalanand Mishra, Pranab Mohanty
cs.AI

papers.abstract

Transformer-basierte Architekturen werden in sequenziellen Empfehlungssystemen häufig eingesetzt, doch ihre Anwendung im Finanzdienstleistungssektor (FS) stellt für Echtzeit-Empfehlungen besondere praktische und modellierungstechnische Herausforderungen dar. Dazu gehören: a) langfristige Nutzerinteraktionen (implizit und explizit), die sich über digitale und physische Kanäle erstrecken und einen zeitlich heterogenen Kontext erzeugen, b) das Vorhandensein mehrerer miteinander verbundener Produkte, die koordinierte Modelle erfordern, um verschiedene Werbeplatzierungen und personalisierte Feeds zu unterstützen und gleichzeitig konkurrierende Geschäftsziele abzuwägen. Wir stellen FinTRec vor, ein transformer-basiertes Framework, das diese Herausforderungen und seine betrieblichen Ziele im FS-Bereich adressiert. Während baumbasierte Modelle traditionell im FS-Sektor aufgrund ihrer Erklärbarkeit und Übereinstimmung mit regulatorischen Anforderungen bevorzugt wurden, zeigt unsere Studie, dass FinTRec eine praktikable und effektive Alternative hin zu transformer-basierten Architekturen darstellt. Durch historische Simulationen und Korrelationen aus Live-A/B-Tests zeigen wir, dass FinTRec durchgängig die produktionsreife, baumbasierte Baseline übertrifft. Die vereinheitlichte Architektur ermöglicht bei Feinabstimmung für die Produktanpassung eine übergreifende Signalweitergabe zwischen Produkten, reduziert Trainingskosten und technische Schulden und verbessert gleichzeitig die Offline-Leistung über alle Produkte hinweg. Unseres Wissens ist dies die erste umfassende Studie zur vereinheitlichten sequenziellen Empfehlungsmodellierung im FS-Bereich, die sowohl technische als auch geschäftliche Erwägungen adressiert.
English
Transformer-based architectures are widely adopted in sequential recommendation systems, yet their application in Financial Services (FS) presents distinct practical and modeling challenges for real-time recommendation. These include:a) long-range user interactions (implicit and explicit) spanning both digital and physical channels generating temporally heterogeneous context, b) the presence of multiple interrelated products require coordinated models to support varied ad placements and personalized feeds, while balancing competing business goals. We propose FinTRec, a transformer-based framework that addresses these challenges and its operational objectives in FS. While tree-based models have traditionally been preferred in FS due to their explainability and alignment with regulatory requirements, our study demonstrate that FinTRec offers a viable and effective shift toward transformer-based architectures. Through historic simulation and live A/B test correlations, we show FinTRec consistently outperforms the production-grade tree-based baseline. The unified architecture, when fine-tuned for product adaptation, enables cross-product signal sharing, reduces training cost and technical debt, while improving offline performance across all products. To our knowledge, this is the first comprehensive study of unified sequential recommendation modeling in FS that addresses both technical and business considerations.
PDF32December 1, 2025