【OpenGPT】为什么我推荐大家使用开源生成式 AI 模型?

在这里插入图片描述

为了科学界的未来,加入开源LLM阵营吧!

免费的ChatGPT用的是很爽,但这种闭源的语言模型最大的缺点就是不开源,外界根本无法了解背后的训练数据以及是否会泄露用户隐私等问题,也引发了后续工业界、学术界联合开源了LLaMA等一系列羊驼模型。

最近Nature世界观栏目刊登了一篇文章,纽约大学政治与数据科学教授Arthur Spirling呼吁大家更多地使用开源模型,实验结果可复现,也符合学术伦理。

为什么我推荐大家使用开源生成式 AI 模型?

研究人员应避免专有模型的诱惑,开发透明的大型语言模型以确保可重复性。

阿瑟·斯皮林

似乎每天都有一种新的大型语言模型 (LLM) 发布,其创造者和学者都对其非凡的响应人类提示的能力进行了令人窒息的评论。它可以修复代码!它可以写一封推荐信!它可以概括一篇文章!

作为一名使用和教授此类模型的政治和数据科学家,从我的角度来看,学者们应该保持警惕。最广为吹捧的 LLM 是专有的和封闭的:由不公开其底层模型以供独立检查或验证的公司运营,因此研究人员和公众不知道该模型是在哪些文件上训练的。

急于将此类人工智能 (AI) 模型纳入研究是一个问题。它们的使用威胁到来之不易的研究伦理学进展和结果的可重复性。

相反,研究人员需要合作开发透明且不依赖于公司青睐的开源 LLM。

专有模型确实很方便,可以开箱即用。但必须通过帮助构建它们和将它们用于研究来投资开源 LLM。我很乐观地认为它们将被广泛采用ÿ

おすすめ

転載: blog.csdn.net/universsky2015/article/details/130570187