Stable Diffusion 母公司开源大语言模型StableLM

4月19号晚上 11 点,Stable Diffusion 的母公司 Stability AI 重磅宣布,正式开源一款全新的大语言模型:StableLM

该模型的 Alpha 版本有 30 亿和 70 亿参数,并将于后续开放 150 亿和 650 亿的参数模型。

Stability AI 的创始人 Emad Mostaque 自 2020 年从 OpenAI 团队离开后,一直秉承着开源开放的理念,持续推出了多款 AI 开源模型。

其中影响力最广的,便有大家所熟知的文本生成图像模型 Stable Diffusion。

自去年 8 月发布以来,Stable Diffusion 在 AIGC 领域吸引了大量用户,也使得其母公司的估值水涨船高,去年 10 月便融资了 1.01 亿美元。

今天 3 月份时,网络上传出 Stability AI 即将开启新一轮融资,如果顺利,公司估值或将达到 40 亿美元。

本次开源的 StableLM,基础功能跟 GPT 一样,支持生成文本和代码,在未来可以给不少应用提供基础技术支持。

在 GitHub 项目中,StableLM 提供了几个基础演示,包括聊天、撰写书信、小说创作、代码编写等功能。

下面是一个简单的书信示例(原文是英文,我用 AI 将其自动翻译成中文):

扫描二维码关注公众号,回复: 15405954 查看本文章

GitHub:https://github.com/Stability-AI/StableLM

StableLM 的技术经验,来自于非营利性研究中心 EleutherAI 开源早期的语言模型。

这些语言模型包括 GPT-J、GPT-NeoX 和 Pythia 套件,它们都是在 The Pile 开源数据集上做的训练。

虽然 StableLM也 是基于 The Pile 数据集做的训练,但实际训练数据集要起初设定的大 3 倍,里面总共包含了 1.5 万亿个 token。

该项目基于 CC BY-SA 4.0 许可发布,这也就意味着,你可以将 StableLM 应用于商业产品

猜你喜欢

转载自blog.csdn.net/qq_41771998/article/details/130261392