用SVM思路解决回归问题本质就是找到一根直线或曲线能够最佳程度拟合数据点。SVM在解决分类问题时是存在一个margin的,SVM在解决回归问题同样存在一个margin,与分类不同的是在此情况下,我们希望margin里包含的样本数据越多越好,这就代表这个范围能比较好的表达样本数据点。在这种情况下,取中间的那根直线作为回归的结果,用它来预测其他未知点y的值。SVM分类是相反的思路,因为SVC是希望margin内的点越少越好。
from sklearn import datasets boston=datasets.load_boston() x=boston.data y=boston.target from sklearn.model_selection import train_test_split x_train,x_test,y_train,y_test=train_test_split(x,y,random_state=666) from sklearn.svm import LinearSVR from sklearn.svm import SVR from sklearn.preprocessing import StandardScaler from sklearn.pipeline import Pipeline def StandardLinearSVR(epsilon,C): return Pipeline([ ('std_scaler',StandardScaler()), ('linearSVR',SVR(epsilon=epsilon,C=C)) ]) svr=StandardLinearSVR(0.1,10) svr.fit(x_train,y_train) print(svr.score(x_test,y_test))0.825000724608