SVM原理及在分类和回归预测中的python代码实现

注: 本blog是个人学习笔记记录,如有错误,欢迎指出,以供学习进步!,再次非常感谢!


说起SVM,应该是机器学习中非常典型的算法,但理解也是比较难的,因此直接看博主july的《支持向量机通俗导论(理解SVM的三层境界)》https://www.cnblogs.com/v-July-v/archive/2012/06/01/2539022.html, 讲的非常全面和细致,看完之后基本上就理解了。

今天晚上有点恼火,花60大洋买了一本书,越来越替某些出书的作者担忧(真想说一句,闭上你TM的那张臭嘴,别用良心去转版权费),写的真的是太糟糕了…….不知到是什么支撑它写下去的。不说了,回到上面的内容。

但还是要说几点注意事项:
(1)支持向量机它输出的不是分类概率,而是一个分类

y = w T x + b

如果y>0 ,则是正分类,反之是负分类

看完理论,感觉非常全面和复杂,但是,我们终究要回到应用上,也不用重复造轮子,我们直接使用sklearn库,它已经帮我们封装好了。svm可以解决两类问题:分类,回归

(1)分类
注:使用了SVC

import numpy as np
from sklearn import svm

X = np.array([[-1, -1], [-2, -1], [1, 1], [2, 1]])
y = np.array([1, 1, 2, 2])
clt = svm.SVC()
clt.fit(X, y)

print clt.predict([[-0.8, -1]])
# /usr/bin/python2.7 /home/SVM/SVM.py
# [1]
# Process finished with exit code 0

(2)回归

其实sklearn 已经分装的特别好,这里对于回归调用了不同给的核,使用改了SVR,

from sklearn import svm
X = [[0, 0], [2, 2]]
y = [0.5, 2.5]
clf = svm.SVR()
clf.fit(X, y)
print clf.predict([[1, 1]])

# [ 1.5]

后续继续完善…………….

参考文献:
[1].http://scikit-learn.org/stable/modules/svm.html#svm-regression
[2].http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
[3].https://www.cnblogs.com/v-July-v/archive/2012/06/01/2539022.html

猜你喜欢

转载自blog.csdn.net/gsww404/article/details/80398584