吴恩达老师机器学习笔记SVM(一)

 时隔好久没有再拾起机器学习了,今日抽空接着学

今天是从最简单的二维数据分类开始学习SVM~

原始数据
(上图为原始数据)

SVM的代价函数

在这里插入图片描述
这里套用以前logistic回归的模板改一下下。。

load('ex6data1.mat');
theta=rand(3,1); 
[m,n]=size(X);
x=ones(m,1); % 添加常量
x=[x X];
C=1;
for i=1:10000 % 拟合次数  
      theta=theta-(((x).*(x*theta>=-1))'*(1-y)+((-x).*(x*theta<=1))'*y).*C; % 先不考虑正则化项
end

C值设为不同的数值,得到的决策边界如下:

在这里插入图片描述
由此可见,C值越大的话,数据错分的现象会减少,但是不会得到更贴合自然(间隔大)的决策边界。
(梨今天学习也要加油呢,手动比心~❥)

猜你喜欢

转载自blog.csdn.net/qq_21567935/article/details/83280395
今日推荐