WEKA3.7算法说明(待补充)

Functions函数

Gaussian Process---高斯过程

linearregression: 线性回归

logisitic                       逻辑回归模型

multilayer perceptron 神经网络

SGD                    随机梯度下降法
simple linear regression
 简单线性回归

simple logistic         回归

SMO                                      支持向量机

Voted Perceptron 投票感知器算法

Lazy懒惰的

IBk():k最近邻分类 

LWL locally weighted learning :局部加权学习

Meta

AdaBoostM1():Adaboost M1方法。-W参数指定弱学习器的算法。    

AdditiveRegression 梯度下降回归树   梯度下降分类树

Bagging 套袋 bagging是一种用来提高学习算法准确度的方法,这种方法通过构造一个预测函数系列,然后以一定的方式将它们组合成一个预测函数。Bagging要求“不稳定”(不稳定是指数据集的小的变动能够使得分类结果的显著的变动)的分类方法。比如:决策树,神经网络算法

ClassificationViaRegression:用回归的方法进行分类;

CostSensitiveClassifier,它可以封装任何分类和自定义分类应用中错过的名义变量矩阵。

CVParameterSelection采用交叉验证的方法,对参数进行优化选择。

猜你喜欢

转载自blog.csdn.net/a1041646584/article/details/79900506
今日推荐