ChatGPT的局限性及商业化应用限制讨论

 

首先,ChatGPT仅使用公开可用的信息,这是其第一个局限。如果基础信息缺失、过时、模糊或过于泛化,AI生成的内容就将不会准确。

只有在使用企业内部专有信息和知识创建特定的GPT时,才会出现真正的商业化解决方案。但对企业而言,专有数据至关重要。数据安全咨询公司Cyberhaven的一份报告显示,企业员工与ChatGPT的聊天内容中,有11%属于机密信息。

平均每家公司每周都会向ChatGPT泄露数百次的商业隐私信息。为解决这个问题,许多企业正采取相应措施,有选择地限制员工使用ChatGPT。亚马逊、微软和沃尔玛等公司已向员工发出警告。

ChatGPT的商业化应用在某些行业受限制

Esade专家Esteve Almirall解释道:“在具有明确商业模式、清晰业务模式的公司中(法律、咨询或软件开发行业),ChatGPT的集成应用将迅速推进。

相较于上面提到的集成ChatGPT只为增强自身能力的,还有一些可以由ChatGPT完全替代的行业,如客户服务,但在此行业ChatGPT的集成应用进度会更慢,在竞争较少或没有竞争的行业,ChatGPT集成应用的进度更是龟速,如公共服务。[1]

生成式技术牵涉到一些棘手问题:不好确定输出的内容是真是假,可能造成无法预料的后果。

这种情况可能发生在文本形态,同时也适用于图像生成领域。使用这种生成式技术创建图像可能涉及道德和法律问题。由于AI算法本身依据统计规律和概率去学习训练数据,它有时会对数据中的偏见进行放大。对于生成式内容,相关责任方有义务披露其是由AI生成的,以便人类能够辨别。

此外,这种生成式内容的出现,需要重新思考创造力和知识产权问题。AI大规模使用人类先前创作的内容来生成新的内容,这意味着AI在某种程度上利用了人类的创新成果。这种背景下产生的文化成果,可能只是算法工程的结果,而不是人类文明活动的真实智慧结晶。[2]

参考资料
[1]https://www.bbva.com/en/innovation/how-businesses-can-leverage-chatgpt/
[2]https://www.94c.cc/info/the-limitations-of-chatgpt.html

猜你喜欢

转载自blog.csdn.net/2302_76860168/article/details/132535798