适者生存:紧凑的生成式人工智能模型是具有成本效益的大规模人工智能的未来 灵活、有针对性、基于检索的模型是大规模部署的生成式人工智能应用程序的最佳解决方案

经过十年来人工智能 (AI) 模型复杂性和计算量的快速增长,2023 年标志着人们的焦点将转向效率和生成式人工智能 (GenAI) 的广泛应用。因此,一种参数少于 150 亿个的新模型(被称为灵活 AI)可以与包含超过 100B 参数的 ChatGPT 式巨型模型的功能紧密匹配,特别是当针对特定领域时。虽然 GenAI 已经在各个行业中部署用于广泛的业务用途,但紧凑但高度智能的模型的使用正在增加。在不久的将来,我预计将会有少量的巨型模式和大量的小型、更灵活的人工智能模型嵌入到无数的应用程序中。

虽然更大的模型已经取得了巨大进步,但在培训和环境成本方面,当然并不是越大越好。TrendForce估计,据报道,仅针对 GPT-4 的 ChatGPT 训练成本就超过 1 亿美元,而灵活模型预训练成本要低几个数量级(例如,报价约为 20 万美元)对于 MosaicML 的 MPT-7B)。大多数计算成本发生在连续推理执行期间,但这对于包括昂贵的计算在内的大型模型来说也面临着类似的挑战。此外,第三方环境中托管的巨型模型提出了安全和隐私挑战。Nimble 模型的运行成本要低得多,并提供许多额外的优势,例如适应性、硬件灵活性、大型应用程序中的可集成性、安全性和隐私性、可解释性等等(参见图 1)。人们认为较小型号的性能不如较大型号的看法也在改变。较小的、有针对性的模型的智能程度并不低——它们可以为商业、消费者和科学领域提供同等或更好的性能,增加其价值,同时减少时间和成本投资。

越来越多的灵活模型大致与 ChatGPT-3.5 级别巨型模型的性能相匹配,并且在性能和范围上持续快速改进。而且,当灵活的模型配备了对精选的特定领域私有数据的动态检索以及基于查询的 Web 内容的有针对性的检索时,它们会比记住广泛内容的巨型模型变得更准确、更具成本效益。数据集。

随着灵活

猜你喜欢

转载自blog.csdn.net/iCloudEnd/article/details/131995695