又壕又实惠的 AI 训练来了,Hugging Face 第一的 LLM 大模型 Falcon 40B 纳入亚马逊云科技服务

出品 | CSDN 云计算

2023 年,几乎是 AI 爆炸式发展的一年。各类大模型接踵而至,全行业都将 AIGC 融入生产流程,以提升效率。最近,阿联酋首都阿布扎比的科研中心 TII(Technology Innovation Institute)拥有 400 亿参数的大语言模型(LLM)Falcon 40B 登上了 Hugging Face 开源大语言模型排行榜单第一名,而背后则是云厂商亚马逊云科技提供超壕的算力训练支持。

最新 Hugging Face 开源大语言模型排行榜单

Falcon 大语言模型提供两种不同规模的开源版本——Falcon 40B和Falcon 7B, 两者均是使用Amazon SageMaker的数据预处理和模型训练任务从零开始构建。开源的Falcon 40B让用户能够构建和定制满足独特用户需求的AI工具,便于无缝集成,并确保长期保存数据资产。模型权重可供下载,检查和部署在任何地方。

这里必须提到云上的 AI 服务,鼎鼎大名的亚马逊云科技旗下的 Amazon SageMaker。自大模型爆火之后,Amazon SageMaker 逐步将主流大模型都纳入了其所提供的服务矩阵中,例如 Stability AI, AI21 Labs 和 LG AI。现在,想使用 Falcon 40B 的用户也可以将 Falcon 40B 部署在 Amazon SageMaker JumpStart 机器学习中心,Amazon SageMaker JumpStart 提供预训练模型,用户无需从头构建自己的模型即可获得 Falcon 40B 最先进的准确性和行业领先的性能。

根据亚马逊云科技的最新消息,从 6 月 7 日起,两个开源 Falcon 大语言模型也将在 Amazon SageMaker JumpStart 中可用。这是 SageMaker 的机器学习中心,它提供了预训练模型、内置算法和预构建的解决方案模板,可以帮助用户快速上手机器学习。用户只需在 SageMaker Studio 中轻点鼠标就可以部署和使用 Falcon 模型,或者通过 SageMaker Python SDK 以编程方式使用。

我们都知道 AI 训练推理需要耗费大量的算力资源,亚马逊云科技 SageMaker 是一个托管 API 集合,用于开发、训练、调优和托管机器学习(ML)模型,包括大语言模型。SageMaker Training 提供了具有用户自定义硬件配置和代码的计算集群。计算作业按运行次数计费,按秒分配任务,这意味着用户在未使用服务时无需为 GPU 资源付费。云厂商对于 AI 大模型训练成本的优化,可以说是开发者非常实惠的选择。TII 使用 SageMaker Training API 提供的瞬态集群来训练 Falcon 大语言模型,最多支持 48 个 ml.p4d.24xlarge 实例(384 个英伟达 A100 GPU)。现在,TII 正在训练下一代 Falcon 大语言模型,将训练扩展到 3136 个 A100 GPU(392 个 ml.p4d 实例)。

除了大模型的服务,亚马逊云科技还有 AI 编程助手 Amazon CodeWhisperer 面向个人开发者免费开放。Amazon CodeWhisperer 从数十亿行公开代码中学习之外,还基于亚马逊的代码进行了训练,可以为 Amazon EC2、Amazon Lambda 和 Amazon S3 等云服务生成最准确、最快和最安全的代码。开发者使用 Amazon CodeWhisperer,完成任务的速度平均快 57%,成功率高 27%。

现在全行业都在拥抱 AI,以提高生产与服务效率,云厂商作为从算力到上层应用的提供者,在其中可以发挥的作用非常巨大。云的模式也让算力规模化的同时,也能最大化的提高 AI 应用开发的性价比,并降低开发者对 AI 从部署到上线的门槛,非常值得开发者关注和尝试。CSDN 也将持续报道 AIGC 最新消息。

猜你喜欢

转载自blog.csdn.net/FL63Zv9Zou86950w/article/details/131115326