面对不断涌现的人工智能新技术,技术保守主义立场可能更为可取

  我们通过新技术一步步走向未来。对未来的协商体现在对技术的每一步考虑之中。面对不断涌现的人工智能新技术,技术保守主义立场可能更为可取。
  技术保守主义可以理解为在发展或者选择技术时我们应当以尊重当下所有人的利益为前提具体地说,在发展技术时应当坚持以新技术的采用可以让所有人的利益都得到提或者至少不损害为最高原则;在接受某项技术时社会应当保持慎重的态度,该新技术的用要使当下所有人的利益都得到帕累托改进并且不采用技术后果不明的技术。
  技术保守主义至少有如下三条作为辩护的理由第一,人类对技术的全面后果是无知的或者至少是部分无知的而技术的全面后果往往是无法通过实验或者理论来推演的第二,因技术发展的巨大惯性人们即使发现了技术的灾难性后果社会也很难即刻停下来。第三技术专家往往倾向于他们所发明的新技术的实施​​​​​​​他们轻视或者忽视该技术的“坏处”,而放大该项技术的“益处”,这不是说他们不客观或者不道德,而是说,这是自我肯定的人性使然。如,核能被告知是清洁且安全的能源,而核电站一直以来也被科学家们宣称绝对安全、发生核事故是小概率事件。然而,自核能技术被人类应用以来,已经发生多起核事故,2009年美国《时代》杂志对历史上发生的令人恐怖的核事故进行了回顾,评出“十大核事故”,其中包括1986年的苏联切尔诺贝利核电站事故。其时,还没有发生日本福岛核事故。2011年的福岛核事故不断产生的核污染废水问题一直困扰着周边国家。1979年美国的三英里岛核事故、1986年切尔诺贝利核电站及2011年福岛核事故均是核电站事故,而当前核电站遍布全球!
  基于以上理由,新技术被应用之前应当得到充分且全方位的评估与论证,并且应当让公众(外行)参与到技术评估与论证中来。可以看到,技术保守主义并不是限制新技术的使用,而是对技术的使用采取审慎的态度。对于当前不断推陈出新的人工智能新技术,技术保守主义不仅要求人工智能技术被实施之前需要充分评估与论证,而且重要的是,因为人工智能技术的特殊性,它还要经得起伦理和社会的审查。事实上,人们一直在考虑如何约束机器人或者人工智能的发展。1950年,美国著名科幻作家艾萨克·阿西莫夫出版了他的著作《我,机器人》。在这部著作里,阿西莫夫提出了著名的机器人三定律:第一定律,机器人不得伤人,或任人受伤而袖手旁观;第二,除非违背第一定律,机器人必须服从人的命令;第三,在不违背第一及第二定律的情况下,机器人必须保护自己。我们看到,在按照阿西莫夫三定律而建立起来的人与机器人共存的社会中,机器人对整体人类只有帮助,不会造成伤害,至少表面上如此。这样的技术的采纳应当是对所有人的福利都有提高而没有伤害,因而符合技术保守主义的立场。

猜你喜欢

转载自blog.csdn.net/weixin_45836589/article/details/122612654