Python机器学习入门1.4《逻辑斯蒂高级优化》

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_40883132/article/details/83117349

基于octava/Matlab语言

options = optimset('GradObj','on','MaxIter','100');
initialTheta = zeros(2,1);
[optTheta,functionVal,exitFlag] = fminunc(@costFunction,inititalTheta,options);

costFunction函数是自定义函数;输入是theta,输出是jVal和gradient,其中jVal是对照左边求损失函数的,gradient是对照左边求损失函数的偏导。

Optimset函数:‘Gradobj’指用户自定义的目标函数梯度;‘MaxITer’指最大迭代次数,‘100’也就是最大迭代次数,这一项只能为整数。

Fminunc函数:有三个输入,第一个输入为costfunction函数的句柄,第二个输入为设置的初始theta值,第三个输入为optimset函数的返回值。 
 

function[jVal,gradient] = costFunction(theta)
jVal = (theta(1)-5)^2 + (theta(2)-5)^2;
gradient =zeros(2,1)
gradient(1) = 2*(theta(1) - 5)
gradient(2) = 2*(theta(2) - 5)

猜你喜欢

转载自blog.csdn.net/qq_40883132/article/details/83117349
今日推荐