automl---大厂研究项目与开源工具

谷歌

谷歌引领了近几年automl的研究和发展趋势。在谷歌内部,AutoML项目由谷歌大脑团队主持研究。
目前,主流的神经架构搜索方法包括:强化学习路径、进化学习路径、Darts路径。这几种研究方法都由谷歌推进和主导。
在基于强化学习的NAS研究中,被人们所熟知的第一篇NAS工作应该是Google的这篇NEURAL ARCHITECTURE SEARCH WITH REINFORCEMENT LEARNING[ICLR 2017],它使用RNN来作为这里的controller,然后用policy gradient来最大化controller采样网络的期望reward,但该方法搜索太慢。 2018年,Google又出了一篇NASNet[2]。受启发于因为VGG/Inception/ResNet将相同cell堆叠的方式,该方法不搜整个结构,而是搜索cell然后堆起来,之后很多工作都沿用了NASNet Search Space这个套路。为加速搜索过程,谷歌提出了ENAS[3],通过参数共享大大提高了搜索效率。
在基于进化学习的NAS研究中,谷歌在2017年发表论文Large-Scale Evolution of Image Classifiers[4],第一次将进化学习应用于深度神经网络的架构搜索,解决了强化学习搜索空间小的问题。2018年,在论文Regularized Evolution for Image Classifier Architecture Search[5]中,谷歌通过提供复杂的构建模块(基于cell的思路)和较好的初始条件来加速进化过程。
一个很快就能跑完的NAS工作是用可微分的方式进行搜索的DARTS[6],DARTS和ENAS很像,也是从DAG中找子图,并且同样采用了weight sharing,主要的区别在于搜索空间和搜索算法上。搜索空间比较类似NASNet search space,搜索算法则是采用了可微分的方式。 此后,又提出了更快更准确的sharpdarts[7]

谷歌的AutoML是一个新兴的云计算机学习工具软件套件,它基于谷歌最先进的神经架构搜索技术(NAS)。Google AutoML可以自送设计和训练高性能深度网络,无需用户掌握深度学习或AI知识,用户仅仅需要的是标记数据。 Google使用NAS为特定数据集和任务找到最佳网络。并且通过AutoML所找到的最佳网络一般情况下要好于人工设计的神经网络!
在这里插入图片描述
[1] Zoph B, Le Q V. Neural architecture search with reinforcement learning[J]. arXiv preprint arXiv:1611.01578, 2016.
[2] Zoph B, Vasudevan V, Shlens J, et al. Learning transferable architectures for scalable image recognition[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2018: 8697-8710.
[3] Pham H, Guan M Y, Zoph B, et al. Efficient neural architecture search via parameter sharing[J]. arXiv preprint arXiv:1802.03268, 2018.
[4] Real E, Moore S, Selle A, et al. Large-scale evolution of image classifiers[C]//Proceedings of the 34th International Conference on Machine Learning-Volume 70. JMLR. org, 2017: 2902-2911.
[5] Real E, Aggarwal A, Huang Y, et al. Regularized evolution for image classifier architecture search[C]//Proceedings of the aaai conference on artificial intelligence. 2019, 33: 4780-4789.
[6] Liu H, Simonyan K, Yang Y. Darts: Differentiable architecture search[J]. arXiv preprint arXiv:1806.09055, 2018.
[7] Hundt A, Jain V, Hager G D. sharpdarts: Faster and more accurate differentiable architecture search[J]. arXiv preprint arXiv:1903.09900, 2019.

微软

上新了,NNI!微软开源自动机器学习工具NNI概览及新功能详解
如何看待微软最新发布的AutoML平台NNI?
2018年9月,微软亚洲研究院发布了第一版 NNI (Neural Network Intelligence) ,目前已在 GitHub 上获得 3.8K 星,成为最热门的自动机器学习(AutoML)开源项目之一。

作为为研究人员和算法工程师量身定制的自动机器学习工具和框架,NNI 在过去一年中不断迭代更新,我们发布了稳定 API 的 1.0 版本,并且不断将最前沿的算法加入其中,加强对各种分布式训练环境的支持。

最新版本的 NNI 对机器学习生命周期的各个环节做了更加全面的支持,包括特征工程、神经网络架构搜索(NAS)、超参调优和模型压缩在内的步骤,你都能使用自动机器学习算法来完成。

【】神经网络结构搜索在 NNI 上的应用:
https://github.com/microsoft/nni/blob/master/docs/zh_CN/NAS/Overview.md
【】NNI 中的特征工程:
https://github.com/microsoft/nni/blob/master/docs/zh_CN/FeatureEngineering/Overview.md
【】使用 NNI 进行模型压缩:
https://github.com/microsoft/nni/blob/master/docs/zh_CN/Compressor/Overview.md
在这里插入图片描述
微软自动深度学习工具 NNI 具备以下优势:

• 支持多种框架:提供基于 Python 的 SDK,支持 PyTorch、TensorFlow、scikit-learn、LightGBM 等主流框架和库;

• 支持多种训练平台:除在本机直接运行外,还能通过 SSH 调度一组 GPU 服务器,或通过 FrameworkController、KubeFlow、OpenPAI 等在 Kubernetes 下调度大规模集群;

• 支持机器学习生命周期中的多环节:特征工程、神经网络架构搜索(NAS)、超参调优和模型压缩等;

• 提供易用的命令行工具和友好的 WEB 用户界面;

• 大量的示例能帮助你很快上手;

• 最后划重点,NNI的所有文档都有中文版!

神经网络结构搜索(NAS)
在这里插入图片描述

亚马逊

亚马逊开发了AutoGluon,这是一个开放源代码库,旨在使开发人员仅用几行代码即可编写AI嵌入的应用程序。它已经在GitHub上公开发布。
AutoGluon可以通过自动调整默认范围内的选择来生成仅需三行代码的模型,而这些默认范围在已知范围内可以很好地完成特定任务。开发者只需指定他们准备好其训练好的模型,作为响应,AutoGluon就会利用可用的计算资源在分配的运行时中找到最强模型。
它以亚马逊和微软三年前的研究工作Gluon为基础,后来又在Apache MXNet和微软的Cognitive Toolkit中发布。Gluon是一个机器学习界面,允许开发者使用一组预先构建和优化好的组件来构建模型,而AutoGluon则端到端地处理开发过程。

发布了180 篇原创文章 · 获赞 309 · 访问量 27万+

猜你喜欢

转载自blog.csdn.net/xys430381_1/article/details/104587247
今日推荐