TPU 3.0,Android P...Google带来了哪些惊喜?

640?wx_fmt=png&wxfrom=5&wx_lazy=1

作者 | DavidZh,阿司匹林

出品 | AI科技大本营(公众号ID:rgznai100)


北京时间 5 月 9 日凌晨, Google I/O 2018 开发者大会的 7000 人会场又一次座无虚席。因为 Google 的“AI First”已经进入第三年,而今年是 AI 落地的关键时期,因此 Google 的一举一动备受关注。


就在大会前夕,Google 宣布将 Google Research 与 Google.ai 合并,推出全新的 Google AI 项目,它将涵盖包括人工智能在内的所有前沿技术研究,足见 Google 对 AI 的重视。


在此次大会上,性能大幅提升的第三代 TPU,更加智能的 Google Assistant,带屏幕的智能音箱,融入了各种 AI 特性的 Android P,加强版的 Google Lens,以及研发了接近 10 年的无人车轮番登场。


Google 持续多年对 AI 的投入,到底能给我们带来多少惊喜?


TPU 3.0

640?wx_fmt=jpeg

在本次开发者大会上,Google 推出了第三代 TPU。据介绍,由 TPU 3.0 组成的 TPU Pod 运算阵列,性能相比上一代提升了 8 倍,可提供 100 petaflops(千万亿次) 的机器学习硬件加速。为了给这个性能怪兽降温,Google 甚至引入了液冷技术。


而就在前不久,Google 刚刚推出了 TPU Cloud 服务。看来在 AI 芯片领域,Google 是准备大干一场了。


Google Assistant


去年被亚马逊 Alexa 拉开差距后,Google 用了一年多时间来追赶。现在,智能助理 Google Assistant 已经进入了 5 亿台设备,支持 5000 种终端产品。


利用去年实现重大突破的 WaveNet 深度生成模型,新版 Google Assistant 拥有六种声音可选,听起来都比现在的版本更加真实自然。美国知名歌手 John Legend 也为 Google Assistant 录制了自己的声音版本,不久的将来就能上线。

640?wx_fmt=png


语音交互上,新版 Google Assistant 支持多轮对话,不用每次都说一遍“Hey Google”唤醒词,稍微长一点的句子也可以正确理解并给出响应。


Google Assistant 还增加了 Multiple actions 功能, 即一句语音指令中可以同时包含多条任务,Google Assistant 会将不同任务拆解开,分别执行。


640?wx_fmt=png


在语音交互的基础上,Google Assistant 扩展了视觉交互能力。首先是 Google 在今年 CES 上跟联想等硬件厂商合作的 Smart Display 项目,相当于给智能音箱加一块触摸屏。不过早在去年 5 月,Amazon 就已经推出了带屏幕的智能音箱 Echo Show,整整领先了 Google 一年。


现场演示中,这块屏幕可以播放视频、显示菜单和烹饪步骤,看起来比较适合厨房或卧室的使用场景,当然也可以视频通话。Google 宣布由 JBL、联想、LG 三家生产的带屏智能音箱将于今年 7 月开售。


640?wx_fmt=png


在手机端,Google Assistant 作为智能助理也增加了视觉辅助功能。比如,用语音问及某个歌手时,它会自动显示歌手的照片和作品链接;调节室内温度时会显示一个圆形调节控件。如果用语音唤醒 Google Assistant 叫外卖,也会在手机上显示出具体食品的图片信息。


更厉害的是,Google Assistant 还加入了电话预约功能。现场演示中,Google Assistant 分别成功约好了一家理发店和餐厅。整个流程并不复杂,先由用户告知 Google Assistant 时间、地点、就餐人数等信息,再由 Google Assistant 跟餐厅的服务员电话沟通并预约。这样一来,就省去了用户本人打电话约餐馆的时间。


虽然通过电话来预约餐馆对人来说并不是一件难事,但是对机器来说却异常困难。从现场的演示视频来看,Google Assistant 与接线员的沟通过程十分流畅,这一点实属不易。


Android P


640?wx_fmt=png


Android 操作系统进入第十年,新的 Android P 还是在小修小改,主要用 AI 来改善电池续航、日常使用效率等体验。


具体来说,Google 与旗下 AI 子公司 DeepMind 一起开发的 Adaptive Battery 技术,可以学习用户使用手机的习惯,从而预测在接下来的某段时间里哪些高频应用最可能被启动,同时忽略那些不太可能用到的应用。Google 声称,这个功能减少了 30% 的 CPU 唤醒,从而延长了续航时间。


640?wx_fmt=png


在 Android P 中,Google 还加入了新的 App Actions 功能。使用搜索框查找内容时,系统会根据相关性和应用使用情况用 AI 来预测用户的具体需求。比如,搜索打车服务 Lyft,结合时间和地点可能意味着用户要回家了,从而直接将结果预览出来,点一下即可叫车。


对于开发者来说,实现这类功能需要借助新的 Slices API 接口,它可以让开发者在负一屏、搜索预结果等页面显示出 AI 的预测能力。


640?wx_fmt=png


考虑到开发者对不同接口的需求可能多种多样,Google 索性开发出了一套 ML Kit 工具包。它允许开发者使用 Firebase 平台自定义机器学习 API 接口。值得一提的是,ML Kit 同时兼容 Android 和 iOS。


640?wx_fmt=png


与此同时,Google 还启动了 Android P Beta 测试计划,率先支持的手机厂商包括 Pixel、Nokia、Essential、小米、OPPO、vivo、OnePlus。四家中国手机厂商将公布各自的测试计划。


Google Lens


640?wx_fmt=png


利用机器学习增强手机视觉能力的 Google Lens 今年也得到加强。Google 宣布 Google Lens 将会内置到 LG、小米、一加、TCL 等厂商的系统相机应用中,其中刚刚发布不久的 LG G7 将率先支持。这意味着,这些品牌的默认相机应用也能提供实时拍照翻译、商品识别等功能了。


640?wx_fmt=png


具体到新增功能上,Google Lens 支持了 Smart Text Selection,即点选照片中的某一个字段可以快速翻译或复制粘贴,而不再局限于文本文档。


640?wx_fmt=png


Style match 则是针对穿衣搭配或家居场景,利用机器学习算法识别摄像头捕捉到的物体,并根据物体特征进行相关的商品推荐。


Waymo


现场,Waymo 提到了自动驾驶汽车需要具备的两个特性:感知(perception)和预测(prediction)。


640?wx_fmt=png


具体到自动驾驶的技术选型上,Waymo 仍然坚持激光雷达、超声波雷达、毫米波雷达、摄像头等多传感器融合的方案。在行人车辆监测的感知层面,Waymo 利用深度学习算法将错误率降低了 100 多倍。现场图片显示,Waymo 的无人车甚至能够探测到身穿恐龙服装的行人。


640?wx_fmt=png


从 2009 年开始路测到现在,Google 的自动驾驶车已经累计完成了 600万英里的开放道路测试;通过模拟仿真环境训练自动驾驶算法的里程数也超过 50 亿英里。


得益于 Google 研发的推理处理器 TPU,自动驾驶相关的数据处理、算法训练和模型构建在 TPU 上比传统平台效率要提高 15 倍。


Waymo 表示,深度学习结合其他技术,Waymo 可以实现 Level 5 级别的全自动驾驶。预计 2018 年晚些时候,Waymo 将在亚利桑那州的凤凰城推出没有安全监督员的无人车搭乘服务。


结语


从开场到结束,Google 发布的所有产品,推出的所有新功能,都和 AI 密切相关。看上去,Google 的“AI First”战略改成“AI in All”或许更为合适。




猜你喜欢

转载自blog.csdn.net/dqcfkyqdxym3f8rb0/article/details/80252802