1800亿参数,支持中文,3.5万亿训练数据!开源类ChatGPT模型

这个必须推荐一下:1800亿参数,支持中文,3.5万亿训练数据!开源类ChatGPT模型

阿联酋阿布扎比技术创新研究所(Technology Innovation Institute,简称TII)在官网发布了,目前性能最强的开源大语言模型之一Falcon 180B。

TII表示,Falcon 180B拥有1800亿参数,使用4096个GPU在3.5万亿token 数据集上进行训练,这也是目前开源模型里规模最大的预训练数据集之一。Falcon 180B有基础和聊天两个模型,允许商业化。

Falcon 180B在多个权威测试平台中,在推理、编程、知识测试等方面,超过了Meta最新发布的 Llama 2 70B 和 OpenAI 的 GPT-3.5,可媲美谷歌的PaLM 2-Large仅次于GPT-4。

基础开源地址:https://huggingface.co/tiiuae/falcon-180B

聊天开源地址:https://huggingface.co/tiiuae/falcon-180B-chat

在线测试地址:https://huggingface.co/spaces/tiiuae/falcon-180b-demo

猜你喜欢

转载自blog.csdn.net/huapeng_guo/article/details/132813119