Google AI Residency 计划集锦

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/jILRvRTrc/article/details/83509501

文 / Google AI Residency 计划经理 Phing Lee


2016 年,我们迎来了 Google Brain Residency 首期学员,这 27 位学员将通过一个为期 12 个月的实习计划开启机器学习和深度学习研究领域的职业生涯。此后,该计划迅速发展,演变成为现今的 Google AI Residency。这项计划旨在为学员提供一个机会,让他们得以融入更广泛的 Google AI 团队,从事机器学习的研究和应用。 


640?wx_fmt=jpeg

部分 2017 届 Google AI 学员参加在加州长滩举行的 2017 年神经信息处理系统大会

与首期学员一样,第二期学员的成就也非常令人瞩目。他们有很多作品已公开或刊发在很多顶尖的机器学习、机器人和医疗保健会议及期刊上。刊发文章的主题包括: 

  • 一项关于对抗样本对人类视觉感知之影响的研究。

  • 一种通过避免机器人无法重置的状态让机器人能够更安全地学习的算法。

  • 能够用于训练史无先例的 10K+ 层神经网络的初始化方法。

  • 一种通过使用较大的小批量来提高训练的可扩展性的方法,这种方法运用于 ImageNet 中的 ResNet-50 时,可减少训练时间,同时不影响测试准确性。

  • 还有更多……


640?wx_fmt=png

该实验(首次)证明受时间限制的人类视觉对对抗样本的敏感性。如需了解更多详情,请参阅 “对抗样本欺骗计算机视觉和受时间限制的人类视觉” (https://tensorflow.google.cn/install/gpu?hl=zh-CN)(收录于 NIPS 2018)


640?wx_fmt=gif

一种用于安全强化学习的算法,可以防止机器人采取无法撤消的行动。如需了解更多详情,请参阅 “不留痕迹:学习重置以实现安全和自主的强化学习” (https://ai.google/research/pubs/pub46643) (收录于 ICLR 2018) 640?wx_fmt=png 

只要使用专门设计的 (Delta-Orthogonal) 初始化方法,即可训练极深度 CNN,无需任何特殊技巧。MNIST(上图)和 CIFAR10(下图)的测试(实线)和训练(虚线)曲线图。如需了解更多详情,请参阅 “CNN 动态等距和平均场论:如何训练 10,000 层 Vanilla 卷积神经网络”(https://ai.google/research/pubs/pub47080)(收录于 ICML 2018)


640?wx_fmt=png

我们运用一系列简单的扩展规则,增加了 SGD 批量大小并将模型训练所需的参数更新次数缩减了一个数量级,且不影响测试集的准确性。这样,我们就能够显著缩短模型训练时间。如需了解更多详情,请参阅 “不要衰减学习率,只需增加批量大小”(https://ai.google/research/pubs/pub46644)(收录于 ICLR 2018)


2017 届 Google AI 学员已经毕业并迈入个人职业生涯中下一个激动人心的阶段,如今,2018 届学员也已于 6 月启程。新一届学员首次分布在 Google 全球办事处的各个团队,参与感知、算法和优化、语言、医疗保健等更多领域的研究。非常期待他们能够取得骄人的成就,为更广的研究社区作出贡献!

如果您有兴趣加入第四期课程,现在即可申请 2019 Google AI Residency 计划!访问 g.co/airesidency/apply,了解更多申请资讯。您也可以访问 g.co/airesidency,浏览更多学员档案、往届学员论文、博文和精彩故事。我们热切期待明年的研究成果,同时希望您能与我们世界各地的研究团队合作!



更多 AI 相关阅读:

· 通过 Google 照片库 API 打造新体验

· Google 新一代音乐识别

· Kaggle 涂鸦识别挑战赛 “Quick, Draw!” 重磅来袭


640?wx_fmt=gif

猜你喜欢

转载自blog.csdn.net/jILRvRTrc/article/details/83509501