从AI中窥探人性(楚才国科)

从AI中窥探人性
人们对人工智能的恐惧早已成为科幻书籍和电影的极好题材。但现在,一些同样的担忧开始影响关于现实世界AI技术的政策讨论。如果这样的担忧演变成为一种技术恐慌,它可能会削弱人工智能丰富的正面作用,比如救生等。

人工智能已经深入我们生活中-实时交通应用,网上商店的购物推荐,银行的欺诈检测通知,甚至医疗诊断测试。但人工智能具有更深远影响的潜力,其中很多我们甚至无法预测。

然而,批评者担心,如果没有制定规章制度,就会导致各种各样的隐患。有的人担心经济崩溃,包括机器人和算法系统变得更加智能所带来的失业。有的人担心隐私和安全问题。还有一些人担心算法可能会歧视女性和少数民族。在这里插入图片描述
由于这样的恐惧,有学者坚持我们需要一个新的“联邦机器人委员会”来指导AI的发展。美国国会最近提出的一项法案提出“联邦人工智能发展与实施咨询委员会”就是这样做的。

对歧视的关切值得深思。自从2016年ProPublica研究发表以来,关于机器学习和AI可能产生的潜在偏见的讨论已经有很多。最近的研究已经提出,人们担心由于使用历史的数据,人工授精可能会带有种族或性别偏见。

人工智能并不完美,因为它是由不完美的个人创造的,所以它们可以学习我们的坏习惯。因此,包括AI系统在内的技术往往可以反映出他们的创造者的主观色彩。但是AI能否帮助我们识别这些偏见呢?

机器和算法可以提供更加客观的标准来发现真实的词语偏见和歧视,并且削弱它的影响。因此,人工智能可以成为走向更加公平和包容的社会的有用工具。

研究人员已经在努力纠正各种创新工具中潜在的算法偏差,从生物扫描仪到量刑算法。如果保持下来发展和创新,研究人员和企业家将能够比我们能够“重新规划”个人或社会的偏见更容易地克服这样的编程问题。

例如,2016年美国律师协会年会上提出的研究显示,准陪审员更有可能记得一名名叫泰隆的被告的负面信息。这些研究中没有一个人直接表示偏爱某一个种族,而是他们的行为表明他们在潜意识里以某种信念行事,并可能引起正义的悲剧。
在这里插入图片描述
正如R街研究所分析师Caleb Watney所写的,这些错误是悲剧,无论它们涉及人为偏差还是“算法偏差”。人工智能可以帮助解决这个问题,通过消除我们的一些无意识的偏好和编目这些偏见以开始对话。

例如,AI为广泛的决策提供了一个更客观的起点,包括预审发布和计算保险费用。由于潜在错误的严重后果,人们可能需要对重要的人工智能决策(例如法律系统或就业方面的决策)进行审查,以防止有偏见的算法。

依靠一个没有偏见的(或者至少偏向偏好的)AI,也会为面临歧视的个人提供支持,表明一个更客观的措施会产生不同的结果。确定导致算法结论的因素要比精确确定个人的精神想法更容易。

科技领域的一些人,包括Elon Musk等创新人士,都表示担心人工智能正在快速发展,以至于我们无法控制 - 但最近Mercatus中心的一篇论文指出,这样的问题可以追溯到50多年前,更多地基于反乌托邦科幻小说现实。因此,政策制定者在介入这样一个迅速发展的新部门时应该小心谨慎。

同样,开源软件等解决方案可以提高决策过程中“黑匣子”的透明度,并允许创新者和企业家识别和批评彼此的过程中的潜在偏见。这样的批评可能会导致更好的结果和没有政府干预的重要辩论。

总之,人工智能本身并不能解决我们所有的问题,但它可能能够提供比我们自己产生的更客观的解决方案。

猜你喜欢

转载自blog.csdn.net/weixin_43092451/article/details/82773226
今日推荐