如何看待无人驾驶技术产生的伦理道德问题

如何看待无人驾驶技术产生的伦理道德问题【值得了解】

本文根据TED科技视频:无人驾驶会挑战哪些道德伦理《自然》发表的自动驾驶伦理调查以及德国公布的首份自动驾驶伦理道德标准,结合自身所学来探讨如何规范无人驾驶产生的伦理道德问题。

从无人驾驶技术这一概念出现在公众视线中,到近几年人工智能的火热,随着技术的进步,无人驾驶普及给人类的感受是近在眼前。先不说把实验室里的无人驾驶系统设备搬到汽车上是不是放得下,就其系统本身的安全性、可靠性或许并不完善,再加上成本相对较低、体积较小的高性能计算设备的应用都成为自动驾驶在近几年是否能普及所要思考的问题。 其中系统的安全性还涉及到伦理道德的考量。

根据调查显示,全世界每年有120万人死于交通事故中,而无人驾驶技术的提出所要实现的目标就是减少90%的交通事故。事故的来源无疑是人的过错。所以,自动驾驶的出现用来解放人类双手,服务于人类,只是其中一个很小的方面,它的终极目标还是降低交通事故的发生率。试想,如果未来的某一天,自动驾驶进入人们的生活,想象有这样一个场景:当自动驾驶汽车在行驶的过程中突然出现了机械故障,刹车失灵,这里假设汽车是完全自动化的,没有紧急制动功能,人无法操作,这时候前方有一群闯红灯的人(前几年的中国式过马路),而人行横道上走着一位老爷爷,那么,这时候的自动驾驶系统应作何选择?是直接冲向人群还是避开人群撞向人行横道行走的老爷爷,或者是撞墙牺牲车主。当然,这种假设是把最坏的情况列举出来,但我们也不能保证这样的低概率事件不会发生,先不说智能系统要如何选择,如果不是自动驾驶,人在面对这种情形时会把车转向哪个方向,毫无疑问,人肯定会本能的保护自己的生命安全,然后基于此来尽可能的降低伤害,但是在紧要关头,很多人是来不及思考的,那种舍己保全大局者也只是极少部分的人。但当我们转向智能系统,它所要做的选择,就需要设计者甚至是使用者从道德层面来进行权衡考量。

 有人会说,既然自动驾驶技术还不够成熟,那就等到它真正的足够安全再普及不就好了。假如,现在的安全系数已经达到了90%,但还有10%需要经过50年甚至更久才能达到,那么,这项技术该不该放弃,所以,这也是需要考虑的一个问题。而且按照目前交通事故死亡率计算,可能还要牺牲6千万人的生命,因而,技术的发展刻不容缓。

我们再回到智能系统选择的问题上,如果人行横道上是一位壮汉,一个小孩或者恰巧是一个通缉犯,系统是否也应该进行“思考”计算,这样的情况该如何界定?

2016年,麻省理工学院媒体实验室的研究人员就做了这样一项实验。他们建立了一个名为“道德机器”的网站,通过让人们体验13种不同的无人驾驶汽车场景来了解人们希望无人驾驶汽车有怎样的行动模式。通过两年的调查研究,他们分析了来自233个国家的230万参与者的3961万项决策,并发表在《自然》杂志上的一项新研究中,结果表明:在机器如何对待我们的问题上,它判断的标准是根据我们居住地的经济和文化规范所决定的。例如,对于自动驾驶汽车该有怎样的行为模式,从文化角度来说,在偏重个人主义文化的国家往往更倾向于让无人驾驶汽车保护孩子而非老人,对于偏重集体主义文化的国家则更重视老人的生命。研究人员认为,这种分歧可能是制定有关自动驾驶汽车应如何行动的全球指导方针的最大挑战。他们写道:“对于政策制定者来说,保护更多的人和年轻人的偏好可能是最重要的考虑因素,因此个人主义和集体主义文化之间的差异可能会成为制定通用机器伦理的一个重要障碍。除了文化差异以外,研究还发现,经济学在该问题上也发挥着重要作用。例如,透过一个国家的经济不平等程度,可以预测人们有多愿意优先保护社会地位较高的人而不是社会地位较低的人。同样地,对于乱穿马路的问题,国家的人均国内生产总值和制度的力量与保护遵守交通规则的人的偏好程度相关。于是就有,来自较贫穷国家的人往往对横穿马路的行人更加宽容。研究人员认为,在制定决策系统和法规时,自动驾驶汽车制造商和政治家需要考虑到所有的这些差异。这一点很重要:“尽管公众的道德偏好不一定是道德政策的主要决定因素,但人们多大程度上愿意购买自动驾驶汽车以及容忍它们上路行驶,将取决于所采用的道德规则的适合性。

毕竟系统是人为设计的,当发生突发事件的时候,被设计好的系统应该具备有顾全大局的能力,从社会道德层面上讲,牺牲少数应该为最佳选择。但这只是设计者本应有的职业道德思想,所设计出来的产品应该反应社会价值。这并不代表大众,也不是所有人都有高尚的道德观念,于是就有这样一项调查:边沁认为车辆应该遵循功利主义道德,采取最小伤害原则。康德则认为车辆应该遵循义不容辞原则,即车辆不能有意去伤害任何人,不能让它有选择性伤害人的“想法”,只需让车辆顺其自然直行,即使这样可能会伤害到更多的人。结果显示,大部分人支持边沁,但事实上没有人愿意买这样的车,他们都希望买到能够保障自己安全的车,同时也希望别人能买将伤害降到最低的车,这就是所谓的社会道德困境。

19世纪英国经济学家威廉 ·福斯特 ·劳埃德出版的一本宣传册中描述了这样一个场景 :一群农场主在一片农场放羊,每个农场主都拥有一定数量的羊,1-2只,所以这片土地的植被还可以再生长,如果一个农场偷偷主多放了一只羊,他自身获益更多,而其他人也没什么损失,如果每个农场主都擅自增加羊的数量,那么土地就会变得不堪负重,所有人的利益都将受损 。把这个例子放在无人驾驶的问题上,公共土地就好比公共安全,农场主就是行人、乘客 、车主, 如果有人自作主张的把自身安全凌驾于他人利益之上,这些人可能就损害了能将损失降到最低的公共利益 ,无人驾驶存在的问题是没有人去做决策 ,而制造商会本能的把行车程序设定成最大程度保护车主安全的样子,然后行车程序会自主学习,于是这一过程就会增加对行人的潜在危险 ,假如羊变成机器羊,他会自己去吃草 ,农场主并不知道 ,这就是所谓的算法共享悲剧 。

通常情况下,社会政府会商讨制定规则来解决社会道德困境问题,内容就是我们大部分人能接受什么样的后果以及对个人行为施加什么形式的限制,再通过监管和强制执行,就可以确定公共利益得到了保证 。用立法的方式 ,把无人驾驶技术的危险降到最低 ,这是所有人共同的意愿 。但是再换一个角度想,作为一个个体,选择牺牲自己的这种方式也不是只有一个人而已。 有人就不同意立法,说不会买这样制定规则(使得车的损失最小)的车, 如果让无人车遵循最小损失原则 ,我们人类的损失会更大 ,因为我们放弃了这种远超人类驾驶员的安全性。

至此,无人驾驶技术面临的社会道德伦理问题,不单单只是设计者制造商需要考虑的,而是要团结整个社会,决定哪种折中方案是大家都可以接受的 ,要商讨出可以有效推行这种权衡决策的方法 ,从各个方面说,作为最终的使用者是很难抉择的,同样的,立法者也不能容易的判定是谁的过错,这是道德的考量 。因此,如何处理道德困境,人们需要对自己的决定进行反思,对于动物保护者来说他们或许更愿意保护马路中间的动物而牺牲儿童,但研究发现,世界各地的人趋向于希望自动驾驶汽车优先保护人类而非动物,保护尽可能多的人,这也是德国公布的首份自动驾驶伦理道德标准中的规定。这不是一个典型的例子,但大部分人会有这样的想法,或者是保护乘客而不是行人,甚至相当多的人支持严惩横穿马路的行人 。无人车转向还是直行已经不是核心问题了,关键是如何让大众在他们能够接受的权衡方案中达成一致并付诸实施。当这些“危及生命的两难困境出现时”,必须要有相关的国际准则。这些讨论不应该局限于工程师和政策制定者,毕竟这些问题会影响到每一个人。

20世纪40年代,俄国科幻小说家艾萨克·阿西莫夫的著作《机器人三大法则》中对机器人的定义是:机器人不能伤害人类 ;机器人不能违背人的意愿;机器人不能擅自伤害自己 。但随着太多的事件不断挑战这些法则的底线, 阿西莫夫又引出第零号法则,即机器人不能伤害人类这个整体。所以,针对无人车立法不仅仅是技术问题 ,还是一个社会合作问题 。研究人员写道:“在人类历史上,我们从未允许过机器在没有实时监控的情况下,在一瞬间自主决定谁该活谁该死。尽管不同文化之间存在差异,我们需要进行一次全球性的、包容性的对话,讨论我们在机器决策的问题上有什么样的伦理道德,向设计道德算法的公司和监管它们的政策制定者表达我们的偏好,这些见解可以为机器伦理的国际准则提供基础”。

参考:

1.https://v.qq.com/x/cover/923digzon76cpdz/k0647ol0jhl.html

2.http://tech.163.com/18/1103/10/DVMBIIEF00098IEO.html

3.http://finance.sina.com.cn/stock/usstock/c/2018-05-14/doc-ihapkuvk4295063.shtml

发布了21 篇原创文章 · 获赞 21 · 访问量 2670

猜你喜欢

转载自blog.csdn.net/laozaoxiaowanzi/article/details/105245108