人工智能产品的道德审查

原文链接
索尼最早将于2021年春季开始审查其使用人工智能产品的道德风险。

虽然人工智能为消费者提供了更多便利,但它也可能在不知不觉中引发尴尬的问题,比如,由于缺乏对人工智能学习内容和学习方式的理解,它可能会暴露出社会偏见。

在这里插入图片描述

根据外媒报道,索尼考虑2021年对所有人工智能(AI)产品进行伦理审查,对于不符合规范的产品索尼将对其进行改造,或者停止开发。

根据资料报道,人工智能可以收集天气、饮食习惯以及其他日常生活信息,为居民带来便利,但也可能因为歧视性算法而出现一些尴尬的问题。

索尼未来也考虑在金融、娱乐等业务中引入人工智能伦理审查,把人工智能技术带来的风险降到最低。

有关人工智能隐私、道德伦理的话题从未停过,不少科技巨头也在审视内部。

索尼将根据隐私保护等标准,审查人工智能产品从开发到上市的全过程。道德上有缺陷的产品将被修改或删除。即使是已经进入开发阶段的产品也有可能被丢弃,如果发现问题,已经销售的产品也将被召回。该公司计划逐步将人工智能伦理规则扩展到金融和娱乐领域。

随着人工智能进入更多设备,开发者的责任在增加,企业也在加强道德准则。

埃森哲(Accenture)人工智能中心主管加库什纳(Gakuse Hoshina)表示,如果人工智能做出了错误的决定,或导致人身伤害,可能会对业务的连续性造成风险。

索尼计划将其AI伦理准则反映到现有的质量控制程序中。日本公司在衡量产品安全性时很少考虑人工智能伦理。

在这里插入图片描述

从产品开发到发布后,索尼将按照指南检查植入人工智能的项目,包括隐私保护。

因此,人类必须要高度重视人工智能产生的社会风险问题,形成有效的人工智能全球风险治理体系,以避免人工智能的无序发展。

如果一种产品被认为存在道德缺陷,该公司将对其进行改进或停止开发。

除了索尼,谷歌早在2018年就在公司内部推行了人工智能伦理准则,规定了“避免不公平的偏见”等指导原则,违反这些原则的项目将得不到支持。

猜你喜欢

转载自blog.csdn.net/m0_48406244/article/details/112005107