ChatPaper.aiChatPaper

Orion-MSP: Atención Dispersa Multi-Escala para el Aprendizaje en Contexto en Datos Tabulares

Orion-MSP: Multi-Scale Sparse Attention for Tabular In-Context Learning

November 4, 2025
Autores: Mohamed Bouadi, Pratinav Seth, Aditya Tanna, Vinay Kumar Sankarapu
cs.AI

Resumen

Los datos tabulares siguen siendo el formato predominante en aplicaciones del mundo real. Sin embargo, el desarrollo de modelos neuronales efectivos para datos tabulares sigue siendo un desafío debido a la heterogeneidad de los tipos de características y a las interacciones complejas que ocurren a múltiples escalas. Los avances recientes en el aprendizaje en contexto (ICL) para datos tabulares, como TabPFN y TabICL, han logrado un rendimiento de vanguardia comparable al de los árboles potenciados por gradiente (GBTs) sin una ajuste fino específico de la tarea. No obstante, las arquitecturas actuales presentan limitaciones clave: (1) procesamiento de características a escala única que pasa por alto las dependencias jerárquicas, (2) atención densa con escalado cuadrático en el ancho de la tabla, y (3) procesamiento estrictamente secuencial de componentes que impide el refinamiento iterativo de representaciones y la comunicación cruzada entre componentes. Para abordar estos desafíos, presentamos Orion-MSP, una arquitectura de ICL tabular que presenta tres innovaciones clave: (1) procesamiento multi-escala para capturar interacciones jerárquicas de características; (2) atención bloque-esparsa que combina patrones de ventana, globales y aleatorios para una eficiencia escalable y conectividad de largo alcance; y (3) una memoria estilo Perceiver que permite un flujo bidireccional seguro de información entre componentes. En diversos puntos de referencia, Orion-MSP iguala o supera el rendimiento de vanguardia mientras escala eficazmente a tablas de alta dimensionalidad, estableciendo un nuevo estándar para el aprendizaje en contexto tabular eficiente. El modelo está disponible públicamente en https://github.com/Lexsi-Labs/Orion-MSP.
English
Tabular data remain the predominant format for real-world applications. Yet, developing effective neural models for tabular data remains challenging due to heterogeneous feature types and complex interactions occurring at multiple scales. Recent advances in tabular in-context learning (ICL), such as TabPFN and TabICL, have achieved state-of-the-art performance comparable to gradient-boosted trees (GBTs) without task-specific fine-tuning. However, current architectures exhibit key limitations: (1) single-scale feature processing that overlooks hierarchical dependencies, (2) dense attention with quadratic scaling in table width, and (3) strictly sequential component processing that prevents iterative representation refinement and cross-component communication. To address these challenges, we introduce Orion-MSP, a tabular ICL architecture featuring three key innovations: (1) multi-scale processing to capture hierarchical feature interactions; (2) block-sparse attention combining windowed, global, and random patterns for scalable efficiency and long-range connectivity; and (3) a Perceiver-style memory enabling safe bidirectional information flow across components. Across diverse benchmarks, Orion-MSP matches or surpasses state-of-the-art performance while scaling effectively to high-dimensional tables, establishing a new standard for efficient tabular in-context learning. The model is publicly available at https://github.com/Lexsi-Labs/Orion-MSP .
PDF152December 1, 2025