ReFT:语言模型的表示微调ReFT: Representation Finetuning for Language Models
参数高效微调(PEFT)方法旨在通过对少量权重进行更新来调整大型模型。然而,许多先前的可解释性研究表明,表示编码了丰富的语义信息,这表明编辑表示可能是一种更强大的替代方法。在这里,我们通过开发一系列表示微调(ReFT)方法来探讨这一假设。ReFT方法在一个冻结的基础模型上运行,并学习对隐藏表示进行任务特定干预。我们定义了ReFT系列的一个强实例,即低秩线性子空间ReFT(LoReFT)。LoReFT可以直接替代现有的PEFT,并学习比先前最先进的PEFT高10倍至50倍的参数高效干预。我们在八个常识推理任务、四个算术推理任务、Alpaca-Eval v1.0和GLUE上展示了LoReFT。在所有这些评估中,LoReFT提供了效率和性能的最佳平衡,并几乎总是优于最先进的PEFT。我们在https://github.com/stanfordnlp/pyreft 上公开发布了一个通用的ReFT训练库。