NVIDIA AI研究人员提出了Tied-Lora:一种新的人工智能方法,旨在提高低秩适应(LoRA)方法的参数效率

NVIDIA AI研究人员推出Tied-Lora:提高低秩适应(LoRA)方法参数效率的全新人工智能技术

Nvidia的一组研究人员开发了一种名为Tied-LoRA的新技术,旨在提高低秩自适应(LoRA)方法的参数效率。该方法采用权重绑定和选择性训练,以找到性能和可训练参数之间的最佳平衡。研究人员在不同任务和基础语言模型上进行了实验,并发现在效率和性能之间存在权衡。

参数有效调优技术的最新进展包括LoRA,通过低秩矩阵逼近来减少可训练参数。AdaLoRA是LoRA的扩展,引入了动态秩调整,并将适配器调优与LoRA相结合。另一种技术是Kopiczko提出的VeRA,通过冻结矩阵和可训练的缩放向量来减少参数。QLoRA使用量化的基础模型实现了内存高效的LoRA。本研究在低秩权重矩阵中应用权重绑定,进一步提高参数效率。

为了解决微调LLM在下游任务中的计算开销,Tied-LoRA是一种结合了权重绑定和选择性训练的新方法,可以提高LoRA的参数效率。通过对不同研究和基础语言模型进行系统实验,探索不同的参数训练/冻结和权重绑定组合。研究人员确定了一种特定的Tied-LoRA配置,在与标准LoRA方法相比仅使用了13%的参数的情况下,实现了可比性能。

Tied-LoRA是一种通过将权重绑定和选择性训练应用于LoRA中的低秩矩阵,共享基础语言模型中层之间的相同后果,从而减少可训练参数数量的方法,以提高LoRA方法的参数效率。它探索了参数训练/冻结和权重绑定的各种组合,以实现性能和可训练参数之间的最佳平衡。所提议的Tied-LoRA配置在不同任务上进行了评估,展示了它在包括翻译和数学推理在内的数据设置中的效率。

在不同任务和两个基础语言模型上的实验中,不同的Tied-LoRA配置在效率和性能之间表现出一定的权衡。一种特定的Tied-LoRA配置vBuA表现优于其他配置,实现了可比性能。vBuA被确定为最佳选项,可将参数减少87%而保持性能。在抽取式问答、摘要和数学推理等任务的评估中,展示了Tied-LoRA在提高参数效率的同时显著保持了有竞争力的性能。

在各种任务的实验中,发现Tied-LoRA是一种通过利用权重绑定和选择性训练提高LoRA方法的参数效率的范例。结果表明,Tied-LoRA可以取代常识NLI、抽取式QA和摘要等功能。此外,它提供了改进的参数效率,而不会影响性能,仅使用了标准LoRA方法的13%的参数。然而,讨论与其他参数效率方法的限制和比较,有助于识别未来探索的潜在领域。