ChatPaper.aiChatPaper

Programmes de Grands Modèles de Langage

Large Language Model Programs

May 9, 2023
Auteurs: Imanol Schlag, Sainbayar Sukhbaatar, Asli Celikyilmaz, Wen-tau Yih, Jason Weston, Jürgen Schmidhuber, Xian Li
cs.AI

Résumé

Ces dernières années, les grands modèles de langage pré-entraînés (LLMs) ont démontré leur capacité à suivre des instructions et à accomplir de nouvelles tâches à partir de quelques exemples. La possibilité de paramétrer un LLM grâce à ces exemples en contexte élargit ses capacités à un coût bien moindre que le réglage fin. Nous prolongeons cette réflexion et présentons une méthode qui étend encore les capacités d'un LLM en l'intégrant au sein d'un algorithme ou d'un programme. Pour illustrer les avantages de cette approche, nous proposons un exemple concret de réponse à des questions étayées par des preuves. Nous obtenons une amélioration de 6,4 % par rapport à la base de référence de la chaîne de raisonnement grâce à une approche plus algorithmique, sans aucun réglage fin. Par ailleurs, nous mettons en lumière des travaux récents dans cette perspective et discutons des avantages et des inconvénients par rapport aux approches standard.
English
In recent years, large pre-trained language models (LLMs) have demonstrated the ability to follow instructions and perform novel tasks from a few examples. The possibility to parameterise an LLM through such in-context examples widens their capability at a much lower cost than finetuning. We extend this line of reasoning and present a method which further expands the capabilities of an LLM by embedding it within an algorithm or program. To demonstrate the benefits of this approach, we present an illustrative example of evidence-supported question-answering. We obtain a 6.4\% improvement over the chain of thought baseline through a more algorithmic approach without any finetuning. Furthermore, we highlight recent work from this perspective and discuss the advantages and disadvantages in comparison to the standard approaches.
PDF20December 15, 2024