谷歌AI主管:个人反对使用机器学习来实现自主武器研发

640?wx_fmt=gif&wxfrom=5&wx_lazy=1

本文由人工智能观察编译

译者:Sandy

一个月前,谷歌进行了重组,大神Jeff Dean成了新晋掌门人。最近,谷歌还将其研究部门重命名为Google AI。

本周二,谷歌在其开发者大会上又推出了很多新的特性以及更新,包括为手机开发者提供的ML Kit、TPU 3.0以及升级版谷歌助手。对此,Jeff Dean分享了自己对AI未来的看法。他看到了人工智能创造新产品的机会,并找到了人类之前从未想过的问题解决方案。


通用智能AI的出现

如今,大部分人工智能都是为了完成一个单一任务,比如讲句子从一种语言翻译成另一种语言,但Dean表示他希望谷歌可以创建更多的AI模型,以完成多个任务并实现一种“关于世界的常识的推理”。

他说:“未来,你会看到我们更多地转向可以做很多任务的模型,然后在此基础上总结经验,这样当我们想要训练一个模型去做其他事情时,就可以建立在现有技能和专业知识之上。”

比如,如果机器人被要求捡东西东西,它会理解手部的动作,重力如何工作以及对世界的其他理解。“我认为这将是未来几年的一个重要趋势。”


AutoML的偏见和不透明的挑战

根据不同的问题对象,AutoML,谷歌的人工智能可以创建出其他的AI模型,要么令人兴奋,要么令人恐惧。

训练机器的机器肯定会让反对人工智能的人感到恐惧。但谷歌云首席科学家李飞飞说,AutoML降低了高端开发人员甚至是普通人创建定制AI模型的难度。

对Dean来说这是令人兴奋的,因为它可以帮助谷歌“自动解决问题”,但AutoML的使用也带来了独特的问题。

640?wx_fmt=png

“由于我们使用的是比传统手工编码软件更多的系统,这给我们带来了很多挑战,我们正在处理这些问题,”他说。“所以,如果用于训练的数据中存在偏见问题,那么学习的机器学习模型本身会使这些偏见继续延续下去。由此,我们要做的工作有很多,比如,如何培训没有偏见形式的机器学习模型。”

另一个挑战:如何使用AutoML正确地设计安全关键系统,为医疗保健等行业创建AI。数十年的计算机科学已经建立了最佳实践,以便对这些系统进行手工编码,而机器制造机器也需要这样做。

Dean表示,在对狗进行分类时犯错是一回事,在安全关键系统中出错又是另一回事。“我认为这对我们来说是一个非常有意义且重要的应用方向,特别是当我们开始在更安全的关键系统中进行机器学习时,这些都会对医疗保健或自动驾驶汽车等项目产生影响。”


安全关键型AI需要更多的透明度

周二,谷歌研究人员发表的一篇文章,解释了AI为什么对患者做出某些决定,医生能够看到医疗记录建议背后的原理。未来,Dean希望开发一个可以与医生进行简单交互的AI模型,通过提问,可以得到答案。

Dean表示,现在人工智能在谷歌产品中的实行会经历一个内部审查过程。而且,谷歌也在制定一套评估AI模型中是否存在偏见的指导方针。

“用户所希望的,本质上与安全审查或产品新功能的隐私审查一样,我们也希望ML公平审查是将机器学习集成到我们产品中的一部分。”


拒绝AI武器装备

对于AI武器而言,Dean表示他不认为谷歌应该从事制造自主武器的生意。今年3月,有消息传出谷歌正在与美国国防部合作,改进对无人机收集到的镜头的分析。

“随着社会开始发展更强大的技术,机器学习和人工智能会遇到许多道德和伦理问题,”他说。“我个人已经签署了一封信,大约六个或者九个月以前的一封公开信,不记得具体时间,但已明确表示我反对使用机器学习来实现自主武器。我想大多数人都会对此感到不安。”

据纽约时报的报道,数千名谷歌员工已经签署了一封信函,称谷歌应该远离“战争技术”的创建,因为这可能对谷歌的品牌及公司与公众之间的信任造成不可挽回的损失。但是,Dean没有具体说明自己是否也签署了该信函。


AI驱动新产品和新项目

现在人工智能的水平已经超越了模仿人类的活动,他们正在帮助谷歌开发新产品以及新服务。

Dean表示,“通过对这些模型进行大量数据培训,我们实际上可以创建一些系统,让他们做我们无法完成的事情,这是一个基本的进步。我们现在正在开发经过人工智能验证的全新产品,而不是用AI来做我们想做的任何事情,只是相当于一个培训系统。”

640?wx_fmt=png

投稿、约访、合作,联系邮箱[email protected]

添加微信aixiaozhijun,更多交流或进AI观察团

640?wx_fmt=gif

猜你喜欢

转载自blog.csdn.net/w26Y3t53EfqaI0MFeQBa/article/details/80288276