利用贝叶斯优化Hyperopt库进行自动化机器学习参数调优

之前自己一直使用网格搜索(grid-search)来进行参数调优。显然,这种方法调优的候选集很有限,也比较“粗糙”。因此,性能往往不能达到最优。如今越来越多的超参数调优过程都是通过自动化的方法完成的,它们旨在使用带有策略的启发式搜索(informed search)在更短的时间内找到最优超参数,除了初始设置之外,并不需要额外的手动操作。

贝叶斯优化是一种基于模型的用于寻找函数最小值的方法。近段时间以来,贝叶斯优化开始被用于机器学习超参数调优,结果表明,该方法在测试集上的表现更加优异,但需要的迭代次数小于随机搜索。此外,现在一些 Python 库的出现使得对任意的机器学习模型实现贝叶斯超参数调优变得更加简单。

机缘巧合之下(无聊时刷头条给我推荐的),在机器之心中找到了一篇文章《Python 环境下的自动化机器学习超参数调优》,该文章是对William文章的翻译。我觉得特别好,也按照文章的流程走了一遍下来,构造了一个基于贝叶斯优化Hyperopt库的自动化超参数调优模型。

所有的源码可以在William的github中下载。关于代码,作者写得很简洁。什么时候需要再过一遍就行。

1 概述

1.1 贝叶斯优化方法

简单地说,贝叶斯优化通过基于过去对目标的评估结果建立一个代理函数(概率模型)找到使得目标函数最小的值。代理函数比目标函数更易于优化,因此下一个待评估的输入值是通过对代理函数应用某种标准(通常为预期提升)来选择的。贝叶斯方法不同于随机搜索或网格搜索,后两者都使用了过去的评估结果来选择接下来待评估的值。它们的思想是:通过根据过去表现良好的值选择下一个输入值来限制评价目标函数的高昂开销(我这里的理解是,类似于网格搜索,先寻优几个影响大的参数,然后固定它们,再去寻优其它参数)

对于超参数优化来说,其目标函数为使用一组超参数的机器学习模型的验证误差。它的目标是找出在验证集上产生最小误差的超参数,并希望将这些结果泛化到测试集上去。对目标函数评估的开销是巨大的,因为它需要训练带有一组特定超参数的机器学习模型。理想情况下,我们希望找到这样一方法,它既能探索搜索空间,又能限制耗时的超参数评估。贝叶斯超参数调优使用一个不断更新的概率模型,通过从过去的结果中进行推理,使搜索过程「专注」于有可能达到最优的超参数。

1.2优化问题的四个组成部分

贝叶斯优化问题有四个组成部分:

1. 目标函数:我们想要最小化的对象,这里指带超参数的机器学习模型的验证误差。基本可以认为是你使用的学习器。

2. 域空间:待搜索的超参数值。也就是候选集。只不过候选集里的参数一般是服从于某个分布。

3. 优化算法:构造代理模型和选择接下来要评估的超参数值的方法。Hyperopt中使用树形 Parzen 评估器(Tree Parzen Estimation,TPE)作为优化算法。

4. 结果的历史数据:存储下来的目标函数评估结果,包含超参数和验证损失

猜你喜欢

转载自blog.csdn.net/anshuai_aw1/article/details/82498820