【大模型AIGC系列课程 3-3】低成本的领域&私域大模型训练方法

重磅推荐专栏: 《大模型AIGC》《课程大纲》
本专栏致力于探索和讨论当今最前沿的技术趋势和应用领域,包括但不限于ChatGPT和Stable Diffusion等。我们将深入研究大型模型的开发和应用,以及与之相关的人工智能生成内容(AIGC)技术。通过深入的技术解析和实践经验分享,旨在帮助读者更好地理解和应用这些领域的最新进展

1. 如何减少训练成本?增量训练LoRA

https://arxiv.org/abs/2106.09685
如果我们不想给大模型做 “大手术”—— finetue 训练大模型(成本太高了 ==),毕竟我们仅仅想让大模型原先的基础上,再学习一小部分的领域或私域数据,原先大模型已经具备的知识不用怎么变动。那应该如何做到呢?
可以尝试LoRA(Low-Rank Adaptation)!LoRA是一种低秩适应方法,可以用于神经网络的微调和适应。其主要原理是,在微调神经网络时,只优化低秩分解矩阵,而保持预训练的权重不变。具体来说,LoRA 允许我们通过优化自适应期间密集层(dense layers)变化的秩分解矩阵,来间接训练神经网络中的一些密集层,同时保持预训练的权重冻结:

猜你喜欢

转载自blog.csdn.net/u011239443/article/details/132650432
今日推荐