ChatPaper.aiChatPaper

Diep Bayesiaans Actief Leren voor Voorkeursmodellering in Grote Taalmodellen

Deep Bayesian Active Learning for Preference Modeling in Large Language Models

June 14, 2024
Auteurs: Luckeciano C. Melo, Panagiotis Tigas, Alessandro Abate, Yarin Gal
cs.AI

Samenvatting

Het benutten van menselijke voorkeuren om het gedrag van Large Language Models (LLMs) te sturen, heeft de afgelopen jaren aanzienlijk succes laten zien. Desalniettemin blijven gegevensselectie en labeling een knelpunt voor deze systemen, vooral op grote schaal. Het selecteren van de meest informatieve punten voor het verkrijgen van menselijke feedback kan daarom de kosten van voorkeurslabeling aanzienlijk verlagen en de verdere ontwikkeling van LLMs bevorderen. Bayesian Active Learning biedt een principieel kader om deze uitdaging aan te pakken en heeft opmerkelijke successen geboekt in diverse omgevingen. Eerdere pogingen om het in te zetten voor Preference Modeling hebben echter niet aan deze verwachtingen voldaan. In dit werk identificeren we dat een naïeve schatting van epistemische onzekerheid leidt tot het verkrijgen van redundante samples. We pakken dit aan door de Bayesian Active Learner for Preference Modeling (BAL-PM) voor te stellen, een nieuw stochastisch acquisitiebeleid dat niet alleen gericht is op punten met hoge epistemische onzekerheid volgens het voorkeursmodel, maar ook streeft naar het maximaliseren van de entropie van de verkregen promptdistributie in de kenmerkruimte die wordt overspannen door het gebruikte LLM. Opmerkelijk is dat onze experimenten aantonen dat BAL-PM 33% tot 68% minder voorkeurslabels vereist in twee populaire datasets voor menselijke voorkeuren en eerdere stochastische Bayesian acquisitiebelevenissen overtreft.
English
Leveraging human preferences for steering the behavior of Large Language Models (LLMs) has demonstrated notable success in recent years. Nonetheless, data selection and labeling are still a bottleneck for these systems, particularly at large scale. Hence, selecting the most informative points for acquiring human feedback may considerably reduce the cost of preference labeling and unleash the further development of LLMs. Bayesian Active Learning provides a principled framework for addressing this challenge and has demonstrated remarkable success in diverse settings. However, previous attempts to employ it for Preference Modeling did not meet such expectations. In this work, we identify that naive epistemic uncertainty estimation leads to the acquisition of redundant samples. We address this by proposing the Bayesian Active Learner for Preference Modeling (BAL-PM), a novel stochastic acquisition policy that not only targets points of high epistemic uncertainty according to the preference model but also seeks to maximize the entropy of the acquired prompt distribution in the feature space spanned by the employed LLM. Notably, our experiments demonstrate that BAL-PM requires 33% to 68% fewer preference labels in two popular human preference datasets and exceeds previous stochastic Bayesian acquisition policies.
PDF21February 8, 2026