支持向量机SVM----学习笔记四(代码实践一SVM思路解决回归问题)

    

       用SVM思路解决回归问题本质就是找到一根直线或曲线能够最佳程度拟合数据点。SVM在解决分类问题时是存在一个margin的,SVM在解决回归问题同样存在一个margin,与分类不同的是在此情况下,我们希望margin里包含的样本数据越多越好,这就代表这个范围能比较好的表达样本数据点。在这种情况下,取中间的那根直线作为回归的结果,用它来预测其他未知点y的值。SVM分类是相反的思路,因为SVC是希望margin内的点越少越好。

from sklearn import datasets
boston=datasets.load_boston()
x=boston.data
y=boston.target
from sklearn.model_selection import train_test_split
x_train,x_test,y_train,y_test=train_test_split(x,y,random_state=666)
from sklearn.svm import LinearSVR
from sklearn.svm import SVR
from sklearn.preprocessing import StandardScaler
from sklearn.pipeline import Pipeline
def StandardLinearSVR(epsilon,C):
    return Pipeline([
        ('std_scaler',StandardScaler()),
        ('linearSVR',SVR(epsilon=epsilon,C=C))
    ])
svr=StandardLinearSVR(0.1,10)
svr.fit(x_train,y_train)
print(svr.score(x_test,y_test))
0.825000724608

猜你喜欢

转载自blog.csdn.net/weixin_39881922/article/details/80256615