LLaMA开源语言模型泄漏版下载

Meta(Facebook)开源语言模型LLaMA泄漏版国内网盘下载,该语言模型据说是比openAI的ChatGPT能力更强的,虽说是开源语言模型,但如果想要直接使用,还是需要通过Edu教育邮箱来申请资格的,得到批复邮件之后,可以做为科学研究使用。

模型列表

名称 大小 地址
LLMA-7B 25.1GB 下载
LLMA-13B 72.7GB 下载
LLMA-30B 151GB 下载
LLMA-65B 243GB 下载
LLMA-Smallint 76.2 GB 下载

模型下载列表

背景

Facebook/Meta研究部门上周宣布了一个新的大型语言模型:LLaMApapergithub repo)。与以前的许多大型语言模型不同,这个模型有一个独特的属性:模型可供公众使用(有一些警告),这意味着任何人都可以使用它(或微调它)。

模型概述

该模型的架构或多或少是标准的:在自然语言语料库上训练的仅解码器转换器(这次是完全公开的,这很好)。与其他LLM相比,超参数有一些调整,但最明显的变化是训练步骤的数量:作者指出,如果我们训练更小的LLM足够长的时间,损失会继续改善并达到与更大模型竞争的值。就训练计算分配而言,这可能是也可能不是最佳的,但在推理计算方面,它肯定比其他现有的 LLM 要好得多。

针对不同的模型大小发布了多个检查点:7B(十亿个参数)、13B、33B 和 65B。Facebook要求人们填写表格(可在Repo的 README.md 中找到)以获取下载链接;有趣的是,授予访问权限的标准是“.edu”TLD 中的电子邮件。有已经可用的带有检查点的种子,因此人们可以在不联系Facebook的情况下下载模型(他们应该注意模型许可证:权重可以免费用于研究,但不应该用于商业目的)。

这篇论文

猜你喜欢

转载自blog.csdn.net/u010291330/article/details/132580754