吴恩达-coursera-机器学习测试题第十二章-支持向量机

不太能理解为什么C需要大一点??? 

解析:SVM欠拟合,高偏差  原来要调整lambda减少,而C=1/lambda,所以就要调整C增加,减少平方项。

 

 

解析:由于只减少了平方项,所以fi的位置不变,只是整个图像变窄了。 

 解析:使第一项为零,必须保证cost1或者cost0的函数为零,则y=1时看cost1,要使z=thetaTx>=1才能让cost1等于0;同理,y=0时,z=thetaTx<=-1,使cost0等于0

 

解析:有10个特征值以及5000个样本,发现欠拟合既不满足训练集也不满足验证集。A使用其他优化算法既然梯度下降得到局部最优解,并不是这个原因使其欠拟合,故错误。B使用多隐藏层的神经网络可以抑制高偏差,正确。C减少样本数无助于高偏差的缓解,错误。D增加新的特征值有助于高偏差的缓解,正确。 

 

5.选择BC 

A用SVM进行多分类添加一对多的分类,是从剩下的y中选出,有K种分类就应该有K种SVM。B根据高斯核函数可知,当x=l时svm最大为1,替他都比1小。C在使用高斯核函数之前应进行归一化处理,正确。D如果数据是线性可分的,使用线性核函数也要进行参数C的调节故错误。  

这题选项2一定是对的,三四一定是错的,至于第一个我也是很明白为什么对的,欢迎补充 

 

SVM、线性回归之类的最优化问题需要归一化,是否归一化主要在于是否关心变量取值; 

猜你喜欢

转载自blog.csdn.net/weixin_40807247/article/details/81436498