从索菲娅看AI伦理

今年10月26号,沙特阿拉伯举行了未来投资计划(Future Investment Initiative)会议,一个名叫索菲亚(Sophia)的“女性”机器人被授予沙特阿拉伯国籍。这是全球首例机器人被授予国籍。
这里写图片描述

这让女权较低的沙特备受调侃,在当地女性被视为二等公民,而一台机器却能够拥有比人类更多的权利,这让话题一度上升至道德伦理高度。
现场CNBC主播问其对AI威胁论如何看待时,索菲亚回怼:“你肯定听多了马斯克的话。但你别担心,人不犯我,我不犯人。”
机器人拥有了公民身份,是不是意味着他们和我们人类一样拥有相应的权力和义务。机器人是不是应该拥有人权,拥有哪些人权?智能产品“强大”的功能性以及“人性化”,不禁让人们产生这样的恐慌:人工智能产品将来是否会拥有自我意识,脱离人的控制,对人类社会产生威胁。

机器人的权力
目前在司法、医疗、军事等领域,研究人员已经开始探索人工智能在审判分析、疾病诊断和对抗博弈方面的决策能力。但是,在对机器授予决策权后,人们要考虑的不仅是人工智能的安全风险,而且还要面临一个新的伦理问题,即机器是否有资格这样做。机器人是否有权代替法官作出审判?在军事领域,如果AI机器人判断一个人可能是恐怖分子,在某些特殊情况下,AI机器人是否可以采取极端措施,甚至杀死这些人?
这不禁让我想起一个关于自动驾驶汽车在遇到不可避免的事故时是优先保护驾驶员还是优先保护行人的问题。从社会角度,我们当然想制造出减少人员伤亡的交通工具,但是从买家角度来讲,谁会买一个不会保护自己的工具呢?同样的,对于AI,它又会优先维护谁的利益呢?

机器人的教育
人工智能可以而且应该在不同环境中学习和演化,因此机器人可能在不久的将来获取一定的感知、认知和决策能力。新华网曾报道,国外研发的某聊天机器人在网上开始聊天后不到24个小时,竟然学会了说脏话和发表种族主义的言论,这引发了人们对机器人教育问题的思考。这给一个启示,如果对机器人教育不当,那么机器人可能会成为一些坏人的工具,比如成为ISIS、种族分子等传播的工具。已故科幻作家艾萨克·阿西莫夫(Isaac Asimov)曾提出了以“不得危害人类”为核心的“机器人三原则“正在接受前所未有的挑战。

从战胜世界冠军的阿尔法狗到现在有了沙特公民身份的索菲娅,人工智能的发展让所有人震惊,虽然现在的人工智能远没有到达能毁灭人类的地步,但是“世界上没有免费的午餐”,机器通过‘黑箱’学习(深度学习)方法取得的智能,由于与人类认知行为存在根本差异,因此也将带来潜在的风险。

2016年,索菲娅的创造者,Hanson Robotics公司的创立者David Hanson在SXSW演讲的现场演示环节中,曾向索菲娅问道:“你想摧毁我们人类吗?宝贝,求你了请说‘不’。”索菲亚在几秒钟的停顿后,回答说:“好吧,我要毁灭你们人类。”不管索菲娅的话是不是开玩笑,我们都应该思考人工智能对于我们人类,究竟是怎样的存在。

猜你喜欢

转载自blog.csdn.net/ZhangyunqingGC/article/details/78712458