Google为其TPU机器学习硬件宣布了新一代产品

随着打造定制AI硬件的战争升温,谷歌在谷歌I / O 2018年宣布推出其第三代硅芯片Tensor Processor Unit 3.0。

Google首席执行官Sundar Pichai表示,新款TPU吊舱比去年强劲八倍,其性能高达100 petaflops。谷歌加入了几乎所有其他主要公司,希望创建定制芯片以处理其机器操作。虽然已经出现了多种用于开发机器学习工具的框架,包括PyTorch和Caffe2,但这一框架已针对Google的TensorFlow进行了优化。谷歌正在努力让Google Cloud成为亚马逊规模的无所不在的平台,并且提供更好的机器学习工具正在迅速成为赌注。

亚马逊和Facebook都在开发自己的定制芯片。 Facebook的硬件针对其Caffe2框架进行了优化,该框架旨在处理其对用户的大量信息图。你可以把它看作是把Facebook知道的所有关于你的东西 - 你的生日,你的朋友图,以及新闻馈送算法中的所有内容 - 带入一个复杂的机器学习框架,这个框架最适合自己的操作。最终,可能最终需要定制硬件方法。我们对这里的亚马逊的目标知之甚少,但它也希望通过AWS拥有云基础架构生态系统。

所有这一切也形成了一个日益庞大,资金充足的创业生态系统,希望创造一个针对机器学习的定制硬件。像Cerebras Systems,SambaNova Systems和Mythic这样的初创公司,甚至超过了这个数字(甚至不包括在中国的活动)。每个人都在寻找利用类似的利基,这是找到一种方法来超越Nvidia的价格或性能的机器学习任务。这些创业公司中的大多数已经筹集了超过3000万美元。

谷歌去年在I / O上推出了第二代TPU处理器,所以今年我们会看到另一款并不是一个惊喜。我们从几个星期的消息来源获悉,它即将到来,而且该公司已经在努力研究下一步会发生什么。谷歌当时吹捧的表现,尽管所有这些工具的重点是首先让它变得更容易和更可口。

谷歌还表示,这是该公司第一次不得不在其数据中心中使用液体冷却,CEO Sundar Pichai说。对于希望为机器学习创建定制硬件的公司来说,散热越来越成为一个难题。

然而,围绕构建定制芯片还有很多问题。当几年前的Nvidia显卡可以做到这一点时,开发人员可能不需要超高效的硅片。但是数据集越来越大,拥有最大和最好的数据集,这些为当前任何公司创造了防御能力。随着公司规模的扩大可能会让他们采用像GCP这样的东西,只是让它变得更容易,更便宜。

英特尔也希望通过自己的产品进入这里。英特尔一直在争夺FPGA的大奖,随着机器学习的需求随着时间的推移而变化,英特尔的设计更加模块化和灵活。但再次,敲门砖的价格和难度,因为FPGA编程可能是一个难以解决的问题,在这个问题中,没有多少工程师拥有专业知识。微软也在押宝FPGA,并在昨天召开的云计算大会BUILD会议上公布了其称之为Brainwave的产品,该云计算平台日益成为其未来潜力的重要组成部分。

谷歌或多或少似乎想拥有我们在互联网上运营的整个过程。它始于TPU,TensorFlow位于其上。如果它在那里取得成功,它将获得更多数据,使其工具和服务更快,更快,并最终达到AI工具过于遥遥领先的地步,并将开发人员和用户锁定到其生态系统中。谷歌的核心是广告业务,但它正在逐渐扩展到新的业务领域,这些领域都需要强大的数据集和操作来学习人类行为。

现在挑战将是开发人员不仅要让他们进入GCP和其他服务,还要将他们锁定在TensorFlow中。但是随着Facebook越来越希望用像PyTorch这样的替代框架来挑战它,可能会比原先想象的更困难。 Facebook在上个月的主要年度会议F8上推出了PyTorch的新版本。我们必须了解Google是否能够做出足够的回应以保持领先地位,并从新一代硬件开始。

更多好文: Facebook减少了恼人的“现在连接到Messenger”警报

更多好文: 集合是一种更好的方式,可将您拍摄的照片作为心理笔记进行组织

更多好文: 伊隆马斯克提供了更多关于特斯拉骑乘网络的细节


猜你喜欢

转载自blog.csdn.net/qq_42364914/article/details/80690279