数据监管机构就生成人工智能数据保护问题发出警告

英国数据监管机构向科技公司发出警告,要求它们在开发和部署大型语言、生成式人工智能模型时保护个人信息。

在意大利数据隐私监管机构以涉嫌侵犯隐私为由禁止 ChatGPT 后不到一周,参见:第一个禁止 ChatGPT 的西方国家

信息委员会办公室(ICO)发表了一篇博客文章,提醒各组织,当正在处理的个人信息来自公开来源时,数据保护法仍然适用。

开发或使用生成式人工智能的组织应该从一开始就考虑他们的数据保护义务,采取设计和默认的数据保护方法。

对于以开发生成性人工智能为目的处理个人数据的组织来说,他们应该问自己各种问题,主要集中在:他们处理个人数据的合法依据是什么;他们如何降低安全风险;以及他们将如何回应个人权利要求。

真的没有理由误解生成性人工智能的隐私含义,生成性人工智能,像任何其他技术一样,如果不负责任地使用,可能会对数据隐私构成风险。我们将努力确保各组织做得正确。 

ICO 和意大利数据监管机构并不是最近唯一对生殖人工智能可能给公众带来的潜在风险表示担忧的机构。

上个月,苹果联合创始人史蒂夫·沃兹尼亚克、Twitter 所有者埃隆·马斯克以及1100 名技术领袖和科学家呼吁暂停开发比 OpenAI 新推出的 GPT-4 更强大的系统六个月。

在一封公开信中,签名者描绘了一个反乌托邦的未来,并质疑先进的人工智能是否会导致“对我们文明的失控”,参见:技术乌托邦思维的危险

同时还警告说,如果伪装成人类的聊天机器人可以在社交媒体平台上充斥宣传和“假新闻”,那将对民主构成潜在威胁。

该组织还表达了对人工智能可能自动化所有工作,包括令人满意的工作的担忧。

为什么人工智能监管是一项挑战 

Gartner 分析师表示,在监管人工智能方面,最大的挑战是创新发展如此之快,以至于监管很难跟上。

他指出,如果监管过于具体,它们就会在技术发展的那一刻失去效力。

如果他们水平太高,那么他们很难有效,因为他们不清楚。

然而,最终可能扼杀人工智能创新的不是监管,而是因为太多代价高昂的错误而失去信任和社会认可... 

人工智能监管要求对模型进行偏差检查,并要求算法更加透明,这也引发了许多创新,以确保偏差可以被检测到,透明度和可解释性可以实现。

猜你喜欢

转载自blog.csdn.net/qq_29607687/article/details/130002003