人工智能时代,教师何去何从

  论这两年啥最火?人工智能算一个!去年,百度出了无人驾驶汽车,今年,阿里出了酒店服务机器人。谁知道,明年会出来什么?

  总之,人工智能的新变化,总是日新月异。那么,作为人工智能中必不可少的芯片,它的前世今生和未来,究竟如何呢?

  人工智能的今天来之不易,将来也有很长的路要走。

  最近人工智能(AI)的话题非常火爆。AI在医疗诊断、新化合物合成、罪犯识别等方面得到了广泛应用,还能驾驶汽车,甚至能创造出艺术品。

  有时似乎感觉没有什么AI做不到的,似乎每个人都要失业,只要看着AI替我们做好一切就行了。

  为了理解AI技术的起源,这篇文章将会带你浏览AI的历史。它还会介绍AI芯片的现状,以及为了让AI能真正影响到人类生活,创造出高级驾驶辅助系统(ADAS)和自动驾驶汽车等,我们还需要做些什么。

  我们先来从AI的历史开始。随着AI的发展,它越来越偏向特定的技术,即机器学习,这项技术依赖于经验学习来做决策,而不是靠程序做决策。

  而机器学习为深度学习打下了基础,后者的算法需要对数据的进一步理解。

  AI的技术之源

  “人工智能”这个词由科学家John McCarthy、Claude Shannon和Marvin Minsky与1956年在Dartmouth会议上创造。五十年代末,Arthur Samuel将“机器学习”这个词定义为能够从错误中学习的程序,这种程序甚至能在下棋方面比它的创造者更优秀。

  这是计算机技术发展的黄金时期,许多研究人员都认为AI能很快“解决”。科学家们对基于人类大脑功能的计算做了很多研究,看它们是否能解决真实世界中的问题,从而创造了“神经网络”的概念。

  1970年,Marvin Minsky告诉《Life》杂志,“只需三到八年的时间,我们就能创造出拥有普通人类智能的机器”。

  到了二十世纪八十年代,AI走出实验室进入商业领域,创造了一段投资的神话。当AI技术的泡沫在八十世纪末破碎时,AI回到了学术界,科学家们继续研究它的潜力。

  商业圈的观察人士称AI为“过早到来的技术”,或者“未来的技术”,等等不一而足。这段相当长的时期被称为“AI的寒冬”,但随后AI在商业圈又得到了迅猛发展。

  1986年,Geoffrey HInton和他的同事们发表了里程碑式的论文,描述了名为“反向传播”的算法,这个算法可以用于大幅度改善多层“深度”神经网络的性能。

  1989年,贝尔实验室的Yann LeCun和其他研究人员演示了一项新技术在真实世界中的应用,即训练神经网络来识别手写的邮政编码。他们只花了三天时间就训练了一个深度卷积神经网络(CNN)。

  快进至2009年,斯坦福大学的Rajat Raina、Anand Madhavan和Andrew Ng发表了一篇论文,讨论了利用计算性能远超现代多核CPU的GPU提高深度学习速度的方法。AI的盛宴就此开始了。

  真正的AI芯片的任务

  为什么今天AI的话题无处不在?一系列的关键因素最终都聚集在一点上:人们相信科技的巨大进步能够解决越来越重要的真实世界问题。

  有了今天互联网提供的基础设施,全世界的研究人员都能够使用强大的计算能力、海量的数据和高速的通讯,从而创造出新的算法和解决方案。

  例如,汽车工业已经表示愿意在AI科技方面投入巨大的研发资源,因为机器学习可能解决诸如自动驾驶等高度复杂的任务。

  AI芯片设计的一个主要问题就是集成。这里讨论的是超大规模的定制系统芯片(SoC),其中的深度学习由多种硬件加速器实现。设计AI芯片是非常困难的,特别是在汽车工业苛刻的安全和可靠性的要求下。

  但是,AI芯片依然只是芯片,或许再加上一些处理器、内存、I/O和互联技术方面的新技术而已。

  像Google和Tesla等芯片设计方面的新手,以及AIMotive、Horizon Robotics等AI芯片创业公司,都拥有丰富的深度学习的计算复杂度方面的知识,但他们可能会面临尖端系统芯片设计等方面的巨大挑战。

  可配置的、互联的知识产权的作用非常重要,它能让这些芯片界的新手迅速制造出可以使用的芯片。

  以带有深度学习加速器的AI芯片为例,这种芯片的使用场景如汽车前置摄像头,可以进行图像分析,对路边的物体进行检测和分类。每个AI芯片都有独特的内存访问方式,以保证最大的带宽。

  芯片内的数据流必须经过优化,以保证最大的带宽,才能在必要的时候满足性能需求,但又要尽可能在芯片面积、成本和能量消耗方面进行优化。每个连接必须为高层的AI算法进行优化。

  更麻烦的是,新的AI算法每天都在涌现。从某些方面来说,现在的深度学习就像香蕉一样,没人想要烂香蕉,也没人想要AI芯片中的旧算法。对于这些尖端科技产品来说,上市时间比许多其他半导体产品更为重要。

  AI的未来

  尽管深度学习和神经网络快速地推动了人工智能技术的发展,许多研究人员依然相信,要达到最终的AI目标,我们依然需要更多的不同方法。

  大多数AI芯片的设计思路依然是LeCun和Hinton等人在十几年前发表的思想的改进版本,但没有任何理由相信,这条路上的指数级增长能够让AI像人类那样思考。

  我们今天所知的AI并不能把一个任务上获得的深度学习经验推广到其他新的、不同的任务上。

  而且,神经网络并不能很好地吸收以前的知识,或吸收“上下”或者“孩子有父母”这种简单的规则。

  最后,基于神经网络的AI需要大量的数据进行学习,而人类只需一次触摸火炉的经验就能学会不再碰火炉。现在依然不清楚怎样才能将现在的AI技术应用到没有大量数据的问题上。

  尽管按照目前人类的标准来看,AI芯片并没有只能,但它们依然很聪明,而且很可能在不远的未来它们会变得更聪明。

  这些芯片会继续引领半导体技术、计算机体系结构和SoC设计的发展,从而促进更强大的处理能力,促使下一代AI算法的出现。

  同时,新的AI芯片也会进一步需要更多的内存系统和芯片内互联架构,以确保新的硬件加速装置能够为深度学习提供稳定的数据流。

  原文:https://semiengineering.com/artificial-intelligence-chips-past-present-and-future/

  作者:TY Garibay,ArterisIP的CTO,55th DAC IP Track的董事会成员。

  译者:弯月,责编:胡巍巍

  大连人流医院哪家好 http://yyk.39.net/hospital/f9a8f_doctors.html

  大连引产医院哪家好 http://yyk.39.net/hospital/f9a8f_guides.html

猜你喜欢

转载自blog.csdn.net/qq_42894764/article/details/84784141