AI芯片为何突然火了

细数芯片的历史,就是一个从专用芯片转向通用芯片,又转为专用芯片的过程。

 

最早追溯到上世纪60年代,Intel从专用芯片转向通用型芯片中央处理器(CPU),英伟达转成GPU,这两年又产生了TPU。


这个整套体系都是一个把芯片越做越普世化的过程,但这两年由于终端要降低成本,所以又要返回到专用芯片,因为通用芯片相对来说,效率比较低,制作成本比较高。


所以,这两年专用芯片开始火起来。

 

从通用型的、服务器型的、集成型的芯片,转成专用型的,部分设备使用的,有一定功能的芯片,再加上这两年正好赶上AI大爆发,大家就很自然地把AI的需求烧制到这些芯片里,也就是我们看到的AI芯片异军突起。

 

为何终端场景会催生专用芯片?


终端的场景为什么一定要用终端芯片,而不能通过一个捕捉器做网络传输送到云端、送到服务器端,用服务器的CPU、或GPU、或TPU去处理,然后再返回数据呢?

 

是因为你的网络无论多快,中间都有几百毫秒的时间差,而终端芯片未来都需要做到当机立断、直接分析。

 

比如一个机器人,它看到你之后,需要迅速分析出你有什么特点,并跟你对话。这个过程中,如果机器人只有接收器,需要传送到云端再回来,无论网络多快,都会有时间差。

 

所以,为了提高响应速度,终端开始催生自带处理器的需求,比如能做图像识别、语义识别、语音识别,运动机能的一些处理等,那么这个时候,终端就需要具备一定的人工智能能力(AI能力)。

 


专用芯片起势后,玩家们到底比拼什么?


当专用芯片这个需求起来之后,玩家们就要开始比拼了,具体来说,比的是:

 

第一,你的硬件结构是不是最优。


硬件行业的特点是:没有最优、只有更优。


硬件永远都在迭代,背后的原因,主要是摩尔定律在起作用。此外,当摩尔定律晶体管变成量子化的东西后,它会继续进化,从分子层面进到原子内部层面,再继续找其它的计算位。

 

第二,算法是不是最优。

 

前两年大家非常痴狂的去搞神经网络算法的时候,变体非常多,从最开始简算的RNN变到LSTM,变到更为复杂的结构,从最开始设计CNN,到CNN的复杂结构,再到用CNN做对抗网络…

 

在大家疯狂竞争算法的时候,2017年又出来一个理论说:神经元的基础单元不应该是神经,而应该是一个胶囊;这样一来,算法底层又改了,Hinton先生把自己30年前的学术成果给推翻了。在Capsule  Network中,in&out在单个处理单元上变得更复杂,虽然网络连接过程还是原来的样子。


所以,很多人又只能整个推翻,重来。

 

第三,工程细节是不是最优。


人们也发明了很多种方法,比如原来是全连接的,后来又有CNN部分模块连接,然后又出现了很多类似Dropout的模式,连接着同时遗忘着,发现比正常的还更好。

 

第四,工程上的创新每天都在发生。


每个工程师都有工程上的创新。100个工程师里如果有一个工程师有了意义深远的创新,那么对于整个行业来说,又是一场大变革。

 

无论是怎样的创新,都在不断突破,不断提升效率。比如,在算法上,AlphaGoMaster和AlphaGo  Zero,后者的效率相对前者就有突飞猛进的增长。

 

所以,一旦底层被改变,一切又变得不一样了,又得迭代。比如,原来可能是20秒解决,你能19.8秒解决;但现在,突然底层一变,你变成10秒解决了,就又是一层迭代了。


没办法,这个行业就是这样。

 

从硬件、软硬结合,软件、算法几个方面来看,每天都在迭代,所以它很难:由于它没有定型,无定型态的结果导致对专用芯片的固定性要求是非常苛刻的。


因为专用芯片很大的问题是一旦定板、开模,这个东西就不能改,这是一个很大的问题。所以,如何做一个适用性最强的专用芯片,这是非常重要的。一般的专用芯片做完之后,比如只服务于某一种语音识别机的芯片,一旦算法更新,底层对模块的要求就又不一样了,那么这个专用芯片就不能用了。于是,只能再做一个新的专用芯片。

 

这个事情的迭代速度太快了。

 

芯片的三种类型:


前面大致罗列了专用芯片崛起的背景,接下来我们具体聊一下芯片到底有哪三种类型:


  • 集成型的芯片(CPU、GPU、TPU),属于它的模块阵列非常统一的,它能处理几乎所有的事情,又叫通用型芯片

  • FPGA可编程门阵列

  • 专用芯片


其中,FPGA相当于编写硬件,通过改变硬件可以随时调整功能逻辑,但FPGA有以下几个大问题:

 

  • 成本比较高,真正好的FPGA要8000元-1万元。

  • 编写复杂,门槛高,修改难度大。

  • 编程过程中的效率比高级算法低,这样就导致开发难度也比较大。


所以,FPGA是个过渡过程,它能够衔接通用型芯片和底层专用芯片。

 

说完FPGA,再说说专用芯片。


专用芯片的特点是价格极其便宜,只要你开模、打板之后,基本上一片50-100元就搞定了,但开模费500万,而且一旦开模就改不了。(营长注:这里500万为概数,杨歌想表达是开模费很高,对公司来说,是一笔不小的负担。据营长所知,开模费的量级一般在数百万-数千万之间。)

 

如果用数学的方式来理解这三类芯片,那就是:


  • 专用芯片又叫阶跃函数,意思就是,这个东西开了模之后,下一次你要再改,你就得整个上一等;

  • FPGA是线性函数,慢慢涨、慢慢涨;

  • CPU、GPU等集成型芯片是指数函数,成本高,但它是一个好的模式。


专用芯片的成败关键:


目前,大家倾向于回归专用芯片,这也是因为专用芯片在2017年有两大推动力:比特币的挖矿机人工智能

 

基于这两股力量,编写专用芯片需求来了,因为FPGA和CPU成本太高了。


但专用芯片的问题也来了,那就是,无论哪个时代,不管你是20世纪70、80年代,还是现在,专用芯片都会有过时的一天,因为技术一直在迭代。这时候,就是考验你对专用芯片把控力的时候了,一句话,你设计的专用芯片到底能支撑业务走多久。

 

如果你编出来的专用芯片,能持续三年使用,那么同期你就可以去研发另外更新的专用芯片。三年后,当原来的专用芯片产能要下降的时候,你可以拿新的专用芯片顶上。你要能顶上,那这个能力就厉害了。

 

但如果你的专用芯片半年就过时了,那你的成本就太高了,因为你每个专用芯片的打板就需要500万以上,对初创公司来讲是完全承受不起的。(营长注:此为概数,只是为强调打板花费较大。)如果你还不停地在打板,那你的公司就危险了,你还不如用FPGA和CPU来做,现在多核CPU也能完成。

 

现在专用芯片的一个竞争在于,你编写出来专用芯片是否鲁棒性、适应性和存续性足够强,是否能够适应更多的人工智能算法模块,是否能扛住算法变体…

 

比如当CNN一变体,卷积核一变体,这个芯片能不能扛住?当LSTM的循环网络内部结构中,忘记门和记忆门这两个发生变化,你能否扛住?

 

当然,Capsule  Network一出来,不仅你扛不住了,大家都扛不住了。

 

总的来说,你要让你的专用芯片在容错性和鲁棒性、适应性上做到最强,这样,你的成本才能算得过账来。但大部分技术人员的账,可能算不了三到五年的时间。

 

还有些人把目光放在非常细的地方,一定要编到极致,保证局部的鲁棒性、容错性提到最高,但长期的、中长期,比如三年期,这样不一定行。

 

比如,在交通图像监察识别上,你怎么用都不出错,正确率99.9%,但突然过两年算法一升级,你怎么办?


因此,我不建议把目光放到单个场景的适应性上,我认为应该放在一个长期的、场景变革的使用性上,这点非常重要。

 

这些问题其实是现在AI芯片竞争最重要的底层逻辑。在AI芯片领域,我们投了鲲云科技,他们的联合创始人为斯坦福的客座教授、帝国理工的教授、英国皇家工程院院士,发表300多篇的论文。

 

他们的特点能把芯片的适用性做得很好,芯片的场景适应性、网络适应性、算法适应性非常强。

 

同样做的很好的公司还有地平线、寒武纪、深鉴等,不过也有一些公司,场景化的正确率只有95%,甚至85%,那么这些芯片可能就没法用,或者只能调动一定的模块函数,不能调动大部分模块函数。

 

目前来说,深度学习训练过程是不需要用AI专用芯片的,因为AI专用芯片主要还是在某一个终端应用场景用。一般来说,终端人工智能芯片并不执行训练过程,它只执行使用过程。这是大家容易产生理解误区的一个点。

 

AI芯片市场距离饱和还很远:

 

说到终端市场,英伟达也在猛攻终端市场。英伟达去年出了一个TX2的新型芯片(也是终端芯片)。但英伟达的终端芯片是一个轻版的集成化芯片,是把它集成化的GPU镶在了一个小的芯片上,形式了一个专用芯片。所以,现在的AI专用芯片还需要扛住英伟达的竞争。

 

目前,人工智能技术有三层:


  • 基础数学物理层

  • 技术模块中间层

  • 应用层

 

技术模块中间层(简称模块层)是指图像识别、语言识别、语义识别、运动机能识别;底层,即基础数学物理层,就是芯片,数据传输、数据存储结构、算法结构、算法模块。

 

而应用层中,几个比较大的场景有:


  • 智能家具、智能房屋、智慧城市

  • 机器人

  • 个人语音助手

 

这几个场景的入口模块都需要完整的、完全标准的模块层,就是说语音识别、语义识别都则需要非常精准,无论是器械,还是一个机器人,都需要模块层要很成熟,同时需要底层芯片层很成熟。目前,大家都在竞争这个市场。

 

二十年后,周围的物体可能拍一拍都能动、都能说话,每一个东西都需要两个基础的模块体系。


  • 第一个模块体系:硬件模块体系,就是它的硬环境。

  • 第二个模块体系:也就是软环境。

 

软环境就是科大讯飞、商汤、旷视等等在做的东西,硬环境就是英伟达、通讯云、鲲云、深鉴等公司在做的。

 

现在的AI专用芯片市场,如果说市场饱和度满分是10分,现在也就1分不到。

 

虽然现在才1分不到,但今年的AI芯片公司突然火起来,就是因为大家预期了十年之后的应用场景,十年之后这个市场是很大的,不过大到什么程度不好做预期。

 

现在市场上的几家公司,显然还是不足以形成大的竞争。

 

如果做个比喻,现在的市场,也就是刚刚进入体育场,裁判还没有开始吹哨的时候。

 

对于AI专用芯片来说,应用场景还没有完全开发完,有人去做无人机监测、有人去做道路摄像头监测、有人是做家居环境。总的来说,目前各家的应用场景都还没有锁定,还处在一个恶补基础知识的阶段。

 

当然,这个阶段完成之后,可能有的转向交通,有的转向家庭环境了,各有各自的立足的垂直领域,并继续迭代。那么等到那时候,可能就不竞争了。


----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------



猜你喜欢

转载自blog.csdn.net/yubei2155/article/details/79343462
今日推荐