ChatGPT的六大合规风险

ChatGPT在全球科技行业掀起了生成式人工智能的“军备竞赛”,但是人们对生成式人工智能(AIGC)的合规风险普遍认识不足。

Gartner最近撰文指出,企业法务和合规负责人应该认知并解决企业面临的六种ChatGPT(包括其他基于大语言模型的生成式人工智能工具)合规风险,并开始建立护栏确保企业能安全且负责任地使用生成式人工智能工具。

“ChatGPT和其他大型语言模型工具容易产生多种风险,”Gartner法律与合规实践高级总监分析师冉弗里德曼(Ron Friedmann)指出:“法律和合规领导者应评估这些问题是否对其企业构成重大风险,以及在企业内部及其第三方/多方推广AI应用时企业内部需要采取哪些控制措施。否则,企业可能会面临法律、声誉和财务方面的严重后果。

法务和合规负责人应评估的六大ChatGPT风险包括(同样适用于其他大语言模型工具):

*01 捏造的或失实信息*

ChatGPT和其他大语言模型工具最常见的问题是倾向于提供不正确的(尽管表面上合理的)信息。

“ChatGPT也容易产生’幻觉’,包括捏造答案,以及不存在的法律或科学引用,”弗里德曼说:“法律和合规领导者应该发布指导意见,要求员工在采信答案之前审查大语言模型工具生成内容是否准确、恰当和实用。”

*02 数据隐私和机密性*

法律和合规领导者应该意识到,输入到ChatGPT中的任何信息,如果未关闭聊天记录功能,都可能成为其训练数据集的一部分。

“提示词中使用的敏感、专有或机密信息可能会被用于回复企业外部用户的提问&

猜你喜欢

转载自blog.csdn.net/linjie_830914/article/details/131020418