我们如何保护人工智能?

  世界各地的大学都在进行人工智能(AI)方面的重大研究,艾伦研究所(Allen Institute)等机构以及谷歌和Facebook等科技公司也在进行这方面的研究。一个可能的结果是,我们很快就会拥有和老鼠或狗一样复杂的人工智能。现在是时候开始思考,在什么条件下,这些人工智能是否应该得到我们通常给予动物的伦理保护。

  到目前为止,关于“人工智能权利”或“机器人权利”的讨论主要围绕着这样一个问题:我们应该对一个具有类似人类或更高智能的人工智能承担什么样的道德义务——比如《星际迷航》(Star Trek)中的android数据,或者《西部世界》(Westworld)中的多洛雷斯(Dolores)。但是,这种想法从错误的地方开始,可能会产生严重的道德后果。在我们创造出一个像人类一样复杂、值得人类一样伦理考虑的人工智能之前,我们很可能会创造出一个不如人类那么复杂、值得人类考虑一些不如人类伦理考虑的人工智能。

  我们已经非常谨慎地研究如何使用某些非人类动物。动物保护和使用委员会评估研究建议,以确保脊椎动物不会被不必要地杀死或遭受不必要的痛苦。如果涉及到人类干细胞,尤其是人类脑细胞,监管标准就会更加严格。生物医学研究受到严格审查,但人工智能研究目前根本没有受到审查。人工智能研究可能会带来一些同样的伦理风险。也许应该如此。

  你可能会认为人工智能不应该受到这种伦理保护,除非他们是有意识的,也就是说,除非他们有真正的经历,有真正的快乐和痛苦。我们同意。但现在我们面临一个棘手的哲学问题:我们如何知道什么时候我们创造了能够带来快乐和痛苦的东西?如果人工智能就像数据或多洛雷斯,它可以抱怨并为自己辩护,发起一场关于其权利的讨论。但是,如果人工智能像老鼠或狗一样口齿不清,或者由于其他原因无法向我们传达其内心世界,它可能无法报告自己正在遭受痛苦。  大连妇科检查多少钱 mobile.0411bh.com

  这里出现了一个困惑和困难,因为对意识的科学研究还没有就意识是什么以及我们如何判断它是否存在达成共识。在一些观点- -“自由”观点- -意识的存在只需要某种组织良好的信息处理,例如系统对其环境中的对象的灵活的信息模型,具有指导注意能力和长期行动规划。我们可能已经处在创建这样的系统的边缘。在其他观点——“保守”观点——意识可能需要非常特殊的生物学特征,比如大脑在低层次结构细节上非常像哺乳动物的大脑:在这种情况下,我们离创造人工意识还差得很远。

  目前还不清楚哪种观点是正确的,也不清楚其他一些解释最终是否会占上风。然而,如果一个自由主义的观点是正确的,我们可能很快就会创造出许多应该得到道德保护的亚人类人工智能。这就存在道德风险。关于“人工智能风险”的讨论通常集中在新人工智能技术可能给我们人类带来的风险上,比如接管世界并摧毁我们,或者至少搞乱我们的银行系统。更少被讨论的是我们对人工智能的道德风险,因为我们可能虐待他们。

  这听起来可能像是科幻小说里的情节,但只要人工智能领域的研究人员致力于开发有意识的人工智能或强大的人工智能系统,而这些系统最终很可能是有意识的,我们就应该认真对待这个问题。这类研究需要伦理审查,就像我们对动物研究和对人类神经组织样本的研究一样。

  在动物甚至人体实验的研究中,只有在严重违反伦理的行为被曝光之后,才会建立适当的保护措施(例如,在不必要的活体解剖、纳粹医学战争罪行和塔斯基吉梅毒研究中)。有了人工智能,我们有机会做得更好。我们建议成立监督委员会,对前沿人工智能研究进行评估,并考虑到这些问题。这些委员会就像动物护理委员会和干细胞监督委员会一样,应该由科学家和非科学家组成——人工智能设计师、意识科学家、伦理学家和感兴趣的社区成员。这些委员会的任务是识别和评估新型人工智能设计的伦理风险,对科学和伦理问题有深刻的理解,权衡研究的风险和收益。

  这些委员会很可能会对目前所有允许的人工智能研究做出评判。在大多数主流的意识理论中,我们还没有创造出具有值得伦理考虑的意识体验的人工智能。但我们可能很快就会跨过这条至关重要的伦理界线。我们应该为此做好准备。


猜你喜欢

转载自blog.51cto.com/14198725/2406460