人工智能即将超越人类?会将如何变化发展?

  人工智能即将超越人类?会将如何变化发展?

  从全球来看人工智能和自主系统在军事上的应用逐渐增多,这可能影响危机和冲突中使用的威慑策略以及冲突的升级变化。到目前为止,威慑主要指人类设法阻止其他人采取特定行动的行为。

  如果参与思维和决策过程的不止人类,会发生什么情况?以机器速度制定决策和采取行动时,冲突会如何变化发展?一个国家向另一个国家发出可能使用武力信号的方式,如何受人工智能和自主系统影响?具体会出现哪些错误预估、意外后果以及意外升级?

  研究结果表明,尽管很多国家希望使用自主系统,但由于机器决策速度过快,采取的方式与人类理解的不同;许多国家希望使用自主系统但相关经验相对较少;相关能力仍然在不断开发中等原因。目前利用机器进行决策可能导致无意升级或者改变威慑过程。

  这些新技术可能造成冲突不稳定或升级问题,当前的规划和决策工作还未做好应对这些问题的准备。规划人员和决策者必须在将这些系统应用于冲突中之前认真了解思考这些问题。

  研究问题

  一个国家向另一国家发出使用武力信号时,使用思维机器和自主系统的意义是什么?会产生什么影响?

  如果以机器速度制定决策,并利用不会威胁使用国家或行为体人员生命的力量执行行动,威慑力和升级情况会发生何种变化?

  这些能力的提高会如何削弱或增强威慑力?

  会产生哪些错误预测和意外后果?

  兵棋推演人工智能和自主系统得出的看法

扫描二维码关注公众号,回复: 11319409 查看本文章

  与自主系统相比,有人控制系统可能更适用于威慑;

  用自主系统代替无人系统不会削弱安全工作;

  对阵员在冲突中将系统置于不同自主场景中,发出信号表明决心,执行相关行动;

  在兵棋推演中,由于自主系统的决策和行动速度过快,会出现出乎意料的升级状况。

  对威慑力的影响

  自主和无人系统可能影响“延伸威慑”;

  人工智能和自主系统的广泛使用可能造成意外升级和危机的不稳定性。

  不同的人员和人工媒介组合可能影响双方的冲突升级状况。

  机器可能无法很好理解人类发出的威慑,特别是降级信号。

  尽管传统的威慑主要是人类尝试理解其它人类的行为,但是在新的时代,威慑可能涉及通过其它途径了解对方的行为。

  可利用过去有关无人系统出乎意料射击友方或平民目标的案例,了解更先进系统可能出现的技术事故或故障。

  研究建议

  在威慑理论和其它框架下,进行进一步研究明确人工智能和无人系统的潜在影响;

  评估新系统的升级潜力;

  评估新作战概念的升级潜力;

  兵棋推演其它战役级或战略级想定。

  误解1:AI会使大量工作岗位消失。

  事实:和过去涌现的技术一样,AI将会温和地推动生产效率的提升,不会对整体就业岗位数量或失业率产生影响。

  许多人认为,AI将会推动生产率爆发式增长,从而以令经济难以承受的速度“消灭”就业岗位,催生一个没有工作的下层阶级,这个阶级将被一个所谓“机器拥有者”的精英阶级所统治。这些并不是什么新鲜的预言——而且和过去一样,仍然是错误的预言。

  事实上,AI会让就业岗位消失的观点有两大谬误。首先,这一观点大大高估了AI替代人类的能力。

  技术或AI取代人类实际上是非常困难的事,美国近年来生产率增速处于历史低位便是一个很好的例子。

  而用AI来取代大量工作岗位尤为困难,因为从根本上来说,AI只是“狭义AI”,其设计初衷只是为将特定的某一件事做好而已。所以,AI并不会导致就业岗位消失,反而能增加产出、提高质量、推动创新。

  其次,即便AI能力出众,还是会有足够的就业机会,因为如果一家公司的工作岗位数量因效率提升而减少了,那么其实工资的成本也下降了。省下来的这笔钱将转变成更低的价格或更高的工资。将有更多资金流入经济,这些钱可以用来创造就业岗位。

  误解2:AI会让人类变得愚蠢。

  事实:AI将帮助人类做出更明智的决定。

  有些人担心,AI将使人类过分依赖机器,并失去我们原本拥有的一些技能——这种情况下,如果机器偶尔出了错,人类夺回控制权的希望也会很渺茫。

  的确,如果AI能够处理人类惯常处理的日常任务,那么一些技能确实会变得不那么必要,比如说,汽车的出现让大多数人都不再需要学会如何骑马——但事实上,AI也能为我们打开一个技能的新时代。

  误解3:AI会令我们毫无隐私可言。

  事实:AI不会对隐私有影响,因为大部分信息行为都是受到法律法规约束的。

  AI系统有能力、也有需要去收集并分析更多信息,但其对隐私的侵害不会比非AI系统更多,因为后者已经在收集和分析着大量信息。此外,今时今日那些针对数据使用和隐私保护的法律法规也将对AI进行约束。

  简言之,这本质上只是一个政策问题,而不是技术问题。如果不想让AI收集特定数据,我们应该敦促决策者制定相应法规。

  误解4:AI将催生偏见和滥用。

  事实:大部分情况下,AI比人类更少偏见。

  机器学习系统比传统软件系统更为复杂,它们会基于经验持续进行调整和改进。一些批评人士认为,这种复杂性将导致“算法偏见”,从而催生政府和企业有意或无意的滥用行为,因为这些组织会拿算法的复杂性当挡箭牌,为种种剥削、歧视或其他不道德和破坏性行为做借口。

  不道德或不负责任地使用AI的情况确实可能存在,但因为这一点而抵制AI的人忽视了关键的一点:机器学习系统和它的开发者或使用它的组织机构并不是相互独立的。如果某个组织想要系统性地歧视某个特定团体,无需AI也能做到。

  此外,如果一种算法系统产生了意料之外的歧视,这并不是因为技术本身是带有恶意的,技术仅仅只是遵循了人类的指示,或是收集了可能会反应偏见的真实世界的数据而已。

  也就是说,大多数情况下,相比人类的决策过程——下意识的或是蓄意的偏见渗透在社会的方方面面,AI的偏见更少。

  误解5:智能机器将接管并最终消灭人类。

  事实:如果AI能发展到为我们做三明治的程度,我们就太幸运了!

  有些人认为,机器将变得超级智能,并最终将胜过人类。这种智能机器将消灭人类的观点夸大了技术进步的速度,特别是在计算机芯片处理能力提升正在趋于放缓,深度学习领域以外AI进展相对较慢的情况下,更是如此。

  再者,机器智能和人类智能是完全不同的系统,而即便是计算领域果真取得了重大进展,也不太可能制造出拥有人类智力、想象力和适应力水平的机器。

  退一万步来说,假使真的造出了堪比人类智能水平的机器,这些机器还是受控于人类——因为如果不能保证机器大体上是安全的、它们所带来的好处是大于投入成本的,否则人类是不可能去制造AI机器的。

  如果风险出现,就想办法去解决,而不是去阻碍它的发展。政府应该以理性和冷静的态度看待AI,并就AI的挑战和好处开展坦诚的对话。最后,决策者应当大力支持AI的研发,让AI变得更强大、更高效、更安全、更透明。

猜你喜欢

转载自www.cnblogs.com/jinsexiaomifeng/p/13166432.html
今日推荐