参数网格搜索

  GridSearchCV,它存在的意义就是自动调参,只要把参数输进去,就能给出最优化的结果和参数。但是这个方法适合于小数据集,一旦数据的量级上去了,很难得出结果。这个时候就是需要动脑筋了。数据量比较大的时候可以使用一个快速调优的方法——坐标下降。它其实是一种贪心算法:拿当前对模型影响最大的参数调优,直到最优化;再拿下一个影响最大的参数调优,如此下去,直到所有的参数调整完毕。这个方法的缺点就是可能会调到局部最优而不是全局最优,但是省时间省力,巨大的优势面前,还是试一试吧,后续可以再拿bagging再优化。回到sklearn里面的GridSearchCV,GridSearchCV用于系统地遍历多种参数组合,通过交叉验证确定最佳效果参数。

class sklearn.model_selection.GridSearchCV(estimator, param_grid, scoring=None, fit_params=None,
 n_jobs=1, iid=True, refit=True, cv=None, verbose=0, pre_dispatch=‘2*n_jobs’, error_score=’raise’, return_train_score=’warn’)
参数解析:
1.estimator 选择使用的分类器,并且传入除需要确定最佳的参数之外的其他参数。 每一个分类器都需要一个scoring参数,或者score方法: 如estimator=RandomForestClassifier( min_samples_split=100, min_samples_leaf=20, max_depth=8, max_features='sqrt', random_state=10), 2.param_grid 需要最优化的参数的取值,值为字典或者列表,例如: param_grid =param_test1, param_test1 = {'n_estimators':range(10,71,10)}。 3. scoring=None 模型评价标准,默认None,这时需要使用score函数;或者如scoring='roc_auc', 根据所选模型不同,评价准则不同。字符串(函数名),或是可调用对象, 需要其函数签名形如:scorer(estimator, X, y);如果是None,则使用estimator的误差估计函数。 4.n_jobs=1 n_jobs: 并行数,int:个数,-1:跟CPU核数一致, 1:默认值 5.cv=None 交叉验证参数,默认None,使用三折交叉验证。指定fold数量,默认为3,也可以是yield产生训练/测试数据的生成器。 6.verbose=0, scoring=None verbose:日志冗长度,int:冗长度,0:不输出训练过程,1:偶尔输出,>1:对每个子模型都输出。 7.pre_dispatch=‘2*n_jobs’ 指定总共分发的并行任务数。当n_jobs大于1时,数据将在每个运行点进行复制,这可能导致OOM, 而设置pre_dispatch参数,则可以预先划分总共的job数量,使数据最多被复制pre_dispatch次 8.return_train_score=’warn’ 如果“False”,cv_results_属性将不包括训练分数。 9.refit :默认为True,程序将会以交叉验证训练集得到的最佳参数,重新对所有可用的训练集与开发集进行, 作为最终用于性能评估的最佳模型参数。即在搜索参数结束后,用最佳参数结果再次fit一遍全部数据集。 10.iid:默认True,为True时,默认为各个样本fold概率分布一致,误差估计为所有样本之和,而非各个fold的平均。 进行预测的常用方法和属性 grid.fit():运行网格搜索 grid_scores_:给出不同参数情况下的评价结果 best_params_:描述了已取得最佳结果的参数的组合 best_score_:成员提供优化过程期间观察到的最好的评分

例子:

  在 MNIST 数据集上建立一个分类器,使它在测试集上的精度超过 97%。提 示: KNeighborsClassifier 非常适合这个任务。你只需要找出一个好的超参数值(试一下 对权重和超参数 n_neighbors 进行网格搜索)

from  sklearn.model_selection import GridSearchCV
from sklearn.neighbors import KNeighborsClassifier
param_grid = [{'weights':['uniform','distance'],'n_neighbors':[3,4,5]}]

knn_clf = KNeighborsClassifier()
grid_search = GridSearchCV(knn_clf,param_grid,cv = 2,verbose=3,n_jobs=-1)
grid_search.fit(X_train,y_train)

cv交叉验证次数可多给点,本本性能不好,就只给了2

猜你喜欢

转载自www.cnblogs.com/whiteBear/p/12455554.html