ChatGPT保密吗?它有哪些潜在风险?如何规避?

自2022年11月公开发布以来,ChatGPT已成为许多企业和个人的必备工具,但随着该技术越来越多地融入我们的日常生活,人们很自然地想知道:ChatGPT是否是保密的。

图片

问:ChatGPT保密吗?

答:否,ChatGPT会记录每段对话,包括用户共享的任何个人数据,并将其用作训练数据。

OpenAI的隐私政策规定,该公司收集用户向ChatGPT及其其他服务提供的“输入、文件上传或反馈”中包含的个人信息。

图片

公司的常见问题解答明确指出,它将使用用户的对话来改进其人工智能语言模型,并且用户的聊天内容可能会由人工智能培训师进行审查。

图片

此,OpenAI无法从用户的历史记录中删除特定提示,因此请勿与ChatGPT共享个人或敏感信息。

扫描二维码关注公众号,回复: 16597488 查看本文章

图片

2023年3月,韩国媒体报道称三星刚引入ChatGPT还不到20天,就发生了3 起机密数据泄漏事件,其中涉及三星半导体设备测量资料、产品良率等信息。韩媒认为,一些三星的机密资料已传给美国,被存入ChatGPT学习数据库中。

针对此次事件,三星宣布正在制定安全措施,以防止通过ChatGPT进一步泄露信息,如果发生类似事件,可能会考虑禁止ChatGPT进入公司网络。

然而,当前ChatGPT提供了一种删除聊天记录的方法,用户可以对其进行设置,以便它一开始就不会保存用户的历史记录。

图片

步骤1:从聊天记录中选择要删除的对话,然后单击垃圾箱图标将其删除

图片

步骤2:要批量删除对话,请单击左下角电子邮件地址旁边的三个点,然后从菜单中选择“清除对话”

用户与ChatGPT的聊天记录不再存在了,用户将不再看到它们,ChatGPT将在30天内将它们从系统中清除。

图片

图片

步骤 1. 单击电子邮件地址旁边的三个点打开设置菜单

图片

步骤2:在数据控制下,关闭聊天历史记录和培训

图片

取消选中后,ChatGPT将不再将新闻聊天保存到用户的历史记录中,也不会将它们用于模型训练,未保存的对话将在一个月内从系统中删除。

图片

在评估经过语言模型训练的聊天机器人的安全性时,重要的是要考虑企业和个人可能面临的风险。

一些关键的安全问题可能包括数据泄露、未经授权访问私人信息以及有偏见和不准确的信息。

图片

使用任何在线服务,包括ChatGPT,数据泄露都是潜在风险。由于用户无法下载ChatGPT,因此必须通过浏览器进行访问。在这种情况下,如果未经授权的一方获得对用户的对话日志、用户信息或其他敏感数据的访问权限,则可能会发生数据泄露。

可能会产生几个后果:

- 隐私泄露:如果发生数据泄露,用户的私人对话、个人信息或敏感数据可能会暴露给未经授权的个人或实体,从而损害其隐私。

- 身份盗窃:网络犯罪分子可能会利用暴露的个人信息进行身份盗窃或其他欺诈活动,从而对受影响的用户造成财务和声誉损害。

- 数据滥用:在数据泄露中,用户数据可能会被出售或与恶意方共享,这些恶意方可能会将这些信息用于有针对性的广告、虚假信息活动或其他恶意目的。

OpenAI似乎很重视网络安全,并实施了各种安全措施来最大限度地降低数据泄露的风险。

然而,没有一个系统能够完全免受漏洞的影响,而现实情况是,大多数漏洞都是由人为错误而不是技术故障造成的。

图片

如果员工或个人将敏感的商业信息(包括密码或商业秘密)输入ChatGPT,这些数据就有可能被不良行为者拦截或利用。

为了保护个人及企业,请考虑制定全公司范围内的生成式人工智能技术使用政策。

几家大公司已经向员工发出警告。例如,据报道,沃尔玛和亚马逊已告诉员工不要与人工智能分享机密信息。此外,摩根大通和Verizon,已彻底禁止使用 ChatGPT。

图片

使用ChatGPT带来的另一个风险是可能出现有偏见或不准确的信息。由于训练的数据范围广泛,人工智能模型可能会无意中生成包含虚假信息或反映数据中现有偏差的响应。这可能会给依赖人工智能生成内容进行决策或与客户沟通的企业带来问题。因此需要批判性地评估ChatGPT提供的信息,以防止错误信息及有偏见的内容传播。

图片

图片

问:ChatGPT和其他AI系统有法规吗?

答:目前还没有直接管理ChatGPT或其他人工智能系统的具体法规。

然而,包括ChatGPT在内的人工智能技术受到现有数据保护和隐私法规的约束。其中一些法规包括:

- 欧盟《一般数据保护条例》(General Data Protection Regulation,GDPR):GDPR是一项全面的数据保护条例,适用于在欧盟(EU)内运营或处理欧盟居民个人数据的组织。它涉及数据保护、隐私以及个人对其个人数据的权利。

- 美国《加州消费者隐私法》(California Consumer Privacy Act,CCPA):CCPA是美国加州的一项数据隐私法规,为消费者提供有关其个人信息的特定权利。它要求企业披露其数据收集和共享做法,并允许消费者选择不出售其个人信息。

- 其他地区法规:各个国家和地区已经制定了可能适用于ChatGPT等人工智能系统的数据保护和隐私法。例如,新加坡的《个人数据保护法》(Personal Data Protection Act,PDPA)和巴西的《一般个人数据保护法》(Lei Geral de Proteção de Dados,LGPD)。意大利因隐私问题于2023年3月禁止ChatGPT,但在OpenAI添加新的安全功能后一个月后解除了禁令。

直接针对ChatGPT等人工智能系统的具体法规的缺乏可能很快就会得到改善。2023年4月,欧盟立法者通过了《人工智能法案》草案,该法案要求开发 ChatGPT等生成型人工智能技术的公司披露其开发中使用的受版权保护的内容。拟议的立法将根据人工智能工具的风险级别对其进行分类,范围从最小到有限、高和不可接受。主要问题包括生物识别监控、错误信息的传播和歧视性语言。虽然高风险工具不会被禁止,但它们的使用需要高度的透明度。如果获得通过,《人工智能法案》将成为全球首个针对人工智能的综合性法规。

图片

OpenAI实施了多项安全措施来保护用户数据并确保AI系统的安全,但用户在与ChatGPT交互时也应采用某些最佳实践来最大程度地降低风险。

用户可以遵循的一些最佳实践:

- 限制敏感信息:避免在与ChatGPT的对话中共享个人或敏感信息。

- 查看隐私政策:在使用ChatGPT支持的应用程序或任何使用OpenAI语言模型的服务之前,仔细查看平台的隐私政策和数据处理实践,以深入了解平台如何存储和使用个人的对话。

- 使用匿名或假名帐户:如果可以的话,在与ChatGPT或使用ChatGPT API的产品交互时使用匿名或假名帐户。这有助于最大限度地减少对话数据与个人的真实身份的关联。

- 监控数据保留策略:熟悉个人所使用的平台或服务的数据保留策略,以了解自己的对话在匿名或删除之前会存储多长时间。

- 及时了解情况:及时了解OpenAI安全措施或隐私政策的任何变化,并相应地调整个人的做法,以在使用ChatGPT时保持高水平的安全性。

通过了解OpenAI实施的安全措施并遵循这些最佳实践,用户可以在与ChatGPT交互时最大程度地降低潜在风险并享受更安全的体验。

参考链接:

[1]https://economist.co.kr/article/view/ecn202303300057?s=31

[2]https://www.bbc.com/news/technology-65139406

[3]https://www.reuters.com/technology/eu-lawmakers-committee-reaches-deal-artificial-intelligence-act-2023-04-27/

猜你喜欢

转载自blog.csdn.net/2201_75346516/article/details/132303836