在实际应用中利用 Llama 2 功能:使用 FastAPI、Celery、Redis 和 Docker 构建可扩展的聊天机器人

介绍

几天前,Meta 出人意料地开源了他们的大型语言模型 (LLM) Llama 2,这一决定可能会重塑当前人工智能开发的格局。它为 OpenAI 和谷歌等该领域的主要公司提供了另一种选择,这些公司决定对其人工智能模型保持严格控制,限制可访问性并限制更广泛的创新。希望 Meta 的决定能够引发开源社区的集体反应,抵制限制获取该领域进步的趋势。Llama 2 的新许可证甚至更进一步,允许商业用途,为开发人员和企业提供在现有产品和新产品中利用该模型的机会。

Llama2 系列由预训练和微调的 Llama2 和 Llama2-Chat 组成,可扩展至 70B 参数。事实证明,这些模型在各种基准测试中都比开源模型表现更好 [1]。他们还坚持反对一些闭源模型,为开源人工智能的发展提供了急需的推动力 [2]。

如果您关注 HuggingFace [1] 的 Open LLM 排行榜,您会发现 Meta 的 Llama 2 稳居第三位。LLama 2 发布后,Stability AI 发布了 FreeWilly1 和 FreeWilly2 [3]。FreeWilly1 是 Llama 的微调版本,FreeWilly2 是 Llama 2 的微调版本。Stability AI 表示,他们在 Orca 风格的数据集上对这两个模型进行了微调。Orca 数据集是一个大型、结构化的增强数据集合,旨在微调 LLM,其中每个条目都包含一个问题以及来自 GPT-4 或 GPT-3.5 的相应响应。为什么我们不使用 FreeWilly2 模型?不幸的是,虽然 Llama 2 允许商业用途,但 FreeWilly2 只能用于研究目的,并受非商业知识共享许可 (CC BY-NC-4.0) 管辖。

在本文中,我们还将介绍使用 FastAPI、Celery、Redis 和 Docker 以及 Meta 的 Lla

猜你喜欢

转载自blog.csdn.net/iCloudEnd/article/details/131995865