【解读】Intel在hot chips上发布首款AI芯片

本文仅为木盏个人见解,仅供参考。

Intel前段时间将自己的调制解调芯片部门售卖给苹果,意味着牙膏厂在移动设备芯片部署上的进一步溃败。近几年,从牙膏厂的一系列几十上百亿美刀的收购动作(Nervana, Altera, Mobileye等)来看,以及完全不顾AMD在PC市场的大肆叫嚣,甚至不惜再三延迟PPT中的10nm工艺,只有一个可能性——集中活力抢夺AI计算领域。

前两年,也看过Intel发布的计算棒,但一两年内毫无波澜。这次发表的标榜牙膏厂首款AI芯片的NNP-I和NNP-T,却毫不意外,连个科技媒体的头条都没占到。先不说有谷歌的TPU,就是国内也有寒武纪,华为,地平线,深鉴等去年之前就以及发布过所谓的AI芯片了。就连百度的昆仑和阿里的平头哥都早把PPT做好了。所以,看到“首款AI芯片”的字眼,我们心中是波澜不惊的。

事实上,前面那些公司依然没有一个能完全代表当代AI芯片主流的公司,除了黄教主的GPU。所以,牙膏厂的产品还很有希望。并且,本人比较看好。牙膏厂的优势就是服务器CPU市场占有率非常高,天然拥有架构优势。人家开发的只是AI SoC,独立于CPU或者自带arm核。而Intel可以根据自己的AI芯片优化自己的CPU,组成更高程度的SoC。


NNP-I 与 NNP-T

这两款芯片面向服务器AI计算,NNP-I用于推理,而NNP-T用于训练。推理和训练分开,这是符合时代审美的。前者需要低功耗、小体积、高带宽利用率,后者需要大吞吐量、对功耗和体积不太敏感。也有很多AI芯片采用推理训练一体的方式设计,比如TPU。“因地制宜”非常符合后摩尔时代的芯片设计思想,所以我更赞同推理和训练分开设计,如Intel这样。

所谓内行看门道,外行看热闹。木盏带大家看看热闹,我们先来看推理芯片长啥样,NNP-I:

采用M2接口,金手指长度大概两三个厘米,所以整体大小你们自己可以估计一下。用过M2接口SSD的朋友应该知道,这俩是同样尺寸的。使用NNP-I时,也是将其插入主机的M2接口(插SSD的同一接口)。其结构如下:

所有的AI芯片都有着差不多的轮廓——计算阵列。所以阵列中每一个元素设计好是至关重要的。看每一个推理引擎(ICE)的内部结构:

大阵列套小阵列。ICE支持多精度计算: float16, int8,int4,int2,int1。 如果只用int1,那这就是一个二值神经网络了。从各种研究表明,在神经网络中采用低精度的计算,对AI模型的性能影响不大,但是对其速度和功耗的影响是非常巨大的。所以一个具有前瞻性的AI芯片一定要支持低精度计算,GPU在这里就被打脸了。

你想进一步了解NNP-I? 戳链接:https://newsroom.intel.com/wp-content/uploads/sites/11/2019/08/Intel-Nervana-NNP-I-HotChips-presentation.pdf

咱再来看训练芯片NNP-T。先看个样子:

接口采用PCI-E16,跟NVIDIA的GPU同样接口,用的时候查同样的位置。看一下生态层次:

AI芯片的基本修养就算:让AI开发者爸爸们开发的时候,不用了解底层,只知道快。就像GPU一样,装个CUDA完事儿。所以,新推出的AI芯片一定要支持目前最流行AI框架。开发者爸爸以前在GPU上跑的代码,拿到你这儿直接跑,人家才愿意用你的芯片。

NNP芯片支持了TF和pytorch,居然还支持了飞桨,有点儿意思。

想进一步了解NNP-T,戳:

https://newsroom.intel.com/wp-content/uploads/sites/11/2019/08/Intel-Nervana-NNP-T-HotChips-presentation.pdf

发布了147 篇原创文章 · 获赞 1858 · 访问量 90万+

猜你喜欢

转载自blog.csdn.net/leviopku/article/details/100013020
今日推荐