ChatPaper.aiChatPaper

Melhoria de Políticas utilizando Modelos de Feedback em Linguagem

Policy Improvement using Language Feedback Models

February 12, 2024
Autores: Victor Zhong, Dipendra Misra, Xingdi Yuan, Marc-Alexandre Côté
cs.AI

Resumo

Apresentamos os Modelos de Feedback de Linguagem (LFMs, na sigla em inglês) que identificam comportamentos desejáveis - ações que ajudam a alcançar tarefas especificadas na instrução - para o aprendizado por imitação no seguimento de instruções. Para treinar os LFMs, obtemos feedback de Modelos de Linguagem de Grande Escala (LLMs, na sigla em inglês) sobre trajetórias visuais verbalizadas em descrições linguísticas. Primeiro, ao usar LFMs para identificar comportamentos desejáveis a serem imitados, melhoramos a taxa de conclusão de tarefas em relação a fortes baselines de clonagem comportamental em três ambientes distintos de fundamentação linguística (Touchdown, ScienceWorld e ALFWorld). Segundo, os LFMs superam o uso de LLMs como especialistas para prever ações diretamente, quando controlado o número de tokens de saída dos LLMs. Terceiro, os LFMs generalizam para ambientes não vistos, melhorando a taxa de conclusão de tarefas em 3,5-12,0% após uma rodada de adaptação. Por fim, o LFM pode ser modificado para fornecer feedback interpretável por humanos sem perda de desempenho, permitindo a verificação humana de comportamentos desejáveis para o aprendizado por imitação.
English
We introduce Language Feedback Models (LFMs) that identify desirable behaviour - actions that help achieve tasks specified in the instruction - for imitation learning in instruction following. To train LFMs, we obtain feedback from Large Language Models (LLMs) on visual trajectories verbalized to language descriptions. First, by using LFMs to identify desirable behaviour to imitate, we improve in task-completion rate over strong behavioural cloning baselines on three distinct language grounding environments (Touchdown, ScienceWorld, and ALFWorld). Second, LFMs outperform using LLMs as experts to directly predict actions, when controlling for the number of LLM output tokens. Third, LFMs generalize to unseen environments, improving task-completion rate by 3.5-12.0% through one round of adaptation. Finally, LFM can be modified to provide human-interpretable feedback without performance loss, allowing human verification of desirable behaviour for imitation learning.
PDF91December 15, 2024