TabSTAR: Ein grundlegendes Tabellenmodell mit semantisch zielbewussten RepräsentationenTabSTAR: A Foundation Tabular Model With Semantically Target-Aware
Representations
Während Deep Learning in vielen Bereichen bemerkenswerte Erfolge erzielt hat, war es historisch gesehen bei tabellarischen Lernaufgaben unterlegen, die nach wie vor von Gradient Boosting Decision Trees (GBDTs) dominiert werden. Jüngste Fortschritte ebnen jedoch den Weg für Tabular Foundation Models, die weltweites Wissen nutzen und sich über diverse Datensätze hinweg verallgemeinern können, insbesondere wenn die Daten Freitext enthalten. Obwohl die Integration von Sprachmodell-Fähigkeiten in tabellarische Aufgaben bereits untersucht wurde, nutzen die meisten bestehenden Methoden statische, zielunabhängige Textrepräsentationen, was ihre Effektivität einschränkt. Wir stellen TabSTAR vor: ein Foundation Tabular Model mit semantisch zielbewussten Repräsentationen. TabSTAR wurde entwickelt, um Transferlernen auf tabellarischen Daten mit Textmerkmalen zu ermöglichen, mit einer Architektur, die frei von datensatzspezifischen Parametern ist. Es aktiviert einen vortrainierten Textencoder und nimmt Ziel-Tokens als Eingabe, die dem Modell den Kontext liefern, um aufgaben-spezifische Einbettungen zu lernen. TabSTAR erreicht state-of-the-art Leistung sowohl für mittelgroße als auch große Datensätze in bekannten Benchmarks von Klassifikationsaufgaben mit Textmerkmalen, und seine Vortrainingsphase zeigt Skalierungsgesetze in Bezug auf die Anzahl der Datensätze, was einen Weg für weitere Leistungsverbesserungen bietet.