ChatPaper.aiChatPaper

OmniPred: Taalmodellen als Universele Regressoren

OmniPred: Language Models as Universal Regressors

February 22, 2024
Auteurs: Xingyou Song, Oscar Li, Chansoo Lee, Bangding, Yang, Daiyi Peng, Sagi Perel, Yutian Chen
cs.AI

Samenvatting

Over het brede landschap van experimenteel ontwerp is regressie een krachtig instrument geweest om de uitkomstmetingen van een systeem of model nauwkeurig te voorspellen op basis van een set parameters, maar was het traditioneel beperkt tot methoden die alleen toepasbaar zijn op een specifieke taak. In dit artikel stellen we OmniPred voor, een raamwerk voor het trainen van taalmodelen als universele end-to-end regressoren over (x,y)-evaluatiedata uit diverse real-world experimenten. Met behulp van data afkomstig van Google Vizier, een van de grootste blackbox-optimalisatiedatabases ter wereld, tonen onze uitgebreide experimenten aan dat taalmodelen, door alleen tekstuele representaties van wiskundige parameters en waarden, in staat zijn tot zeer precieze numerieke regressie, en dat ze, indien de mogelijkheid krijgen om over meerdere taken te trainen, traditionele regressiemodellen significant kunnen overstijgen.
English
Over the broad landscape of experimental design, regression has been a powerful tool to accurately predict the outcome metrics of a system or model given a set of parameters, but has been traditionally restricted to methods which are only applicable to a specific task. In this paper, we propose OmniPred, a framework for training language models as universal end-to-end regressors over (x,y) evaluation data from diverse real world experiments. Using data sourced from Google Vizier, one of the largest blackbox optimization databases in the world, our extensive experiments demonstrate that through only textual representations of mathematical parameters and values, language models are capable of very precise numerical regression, and if given the opportunity to train over multiple tasks, can significantly outperform traditional regression models.
PDF141February 14, 2026