李宏毅 机器学习-2017-Regression学习笔记

自己听课感觉不错的地方,做个笔记,不喜勿喷!!!
1)
Goodness of Function
Loss Function:L(w,b)
w
,b
= argminL(w,b)
Gradient Desent梯度下降法来寻抓最小的Loss**
注意:这种梯度和三维图大多用matlab来辅助完成和教学演示
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
很有可能陷入局部最优解,看人品,计算出来的偏微分为零就终止了

在这里插入图片描述
2)
我w,b的偏微分,可以用倒三角形符号
梯度算子,梯度等高线的法线方向

在这里插入图片描述
3)
saddle point 微分为零但不是也不是局部极值的点全局极值的点
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述*
4)
训练模型出来以后,结果的预测效果怎么样呢????抓10只来测试一下,计算平均偏差*
在这里插入图片描述
5)
改变我们的额model,变成其他的函数关系求最优解(一次曲线?二次曲线?///)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
二次是三次的子集合,三次时四次的子集合
我们都能找到更小的loss
但是在测试的时候出现了问题****出现了过拟合

在这里插入图片描述
在这里插入图片描述
如何解决过拟合的问题:
1)增加训练集合(我们发现种类影响了她的进化cp值)
而我们实际中没有考虑种类问题,
所以我们要重新设计model,把种类考虑进去

在这里插入图片描述
在这里插入图片描述
使用了冲击函数,冲击函数代指y=b+WiXi中的Wi,依然是线性函数,Linear Model
在这里插入图片描述
在这里插入图片描述
通过曲线发现不是很好的效果,是不是其他factor影响的呢,高度?体重?会影响吗??就把所有的factor都丢进model中去尝试
在这里插入图片描述
怎么弄呢,又过拟合了?是不是我们要换LossFunction呢????
后面加上所有wi参数的平方和!!!!Wi很小意味着它是一个很平滑的function!!!
我们既要保证Loss小,又要保证是个smothness的function,不要抖动的很厉害的,拉姆达的常数需要自己手调,但是这涉及到对Loss函数两项权重影响的方法。。为什么bias不用考虑呢????实际经验上加上bias是个水平线,对实际曲线的是否平滑并没有影响

在这里插入图片描述在这里插入图片描述
怎么去选择拉姆达呢,请听下回分解!!期待。。。。。。
源课件:http://117.128.6.19/cache/speech.ee.ntu.edu.tw/~tlkagk/courses/ML_2017/Lecture/Regression.pdf?ich_args2=525-07205612053662_46922e7716efc77e725bdb9a69a4eb12_10001002_9c89612bd5c0f2d99639518939a83798_cf9d3939295647d16501af614ffdc6b4

案例修改:
#!/usr/bin/env python3

-- coding: utf-8 --

“”"
Created on Tue May 7 21:59:53 2019

@author: chaofan
“”"

    import numpy as np

# import plot
# import matplotlib
import matplotlib.pyplot as plt  # plt
# 李宏毅原代码没有加载相关参数,以上为我自行加载的。
 
x_data = [338, 333, 328, 207, 226, 25, 179, 60, 208, 606]
y_data = [640, 633,619, 393, 428, 27, 193, 66, 226, 1591]
 
x = np.arange(-200, -100, 1) # bias
y = np.arange(-5, 5, 0.1) # weight
Z = np.zeros((len(x), len(y)))
X,Y = np.meshgrid(x, y)
for i in range(len(x)):
    for j in range(len(y)):
        b = x[i]
        w = y[j]
        Z[j][i] = 0
        for n in range(len(x_data)):
            Z[j][i] = Z[j][i] + (y_data[n] - b - w*x_data[n])**2
        Z[j][i] = Z[j][i]/len(x_data)
 
# yadata = b + w*xdata
b = -120 # intial b
w = -4 # intial w
lr = 1 # learning rate
iteration = 100000
 
# store initial values for plotting
b_history = [b]
w_history = [w]

# 对b、w定制化的学习率lr
lr_b = 0
lr_w = 0

 
# iterations
for i in range(iteration):
 
    b_grad = 0.0
    w_grad = 0.0
    for n in range(len(x_data)):
        b_grad = b_grad - 2.0*(y_data[n] - b - w*x_data[n])*1.0
        w_grad = w_grad - 2.0*(y_data[n] - b - w*x_data[n])*x_data[n]

 
     # 对b、w定制化的学习率lr
    lr_b = lr_b + b_grad ** 2
    lr_w = lr_w + w_grad ** 2
 
    # update parameters
    # 对b、w定制化的学习率lr,采用Adagard
    b = b - lr / np.sqrt(lr_b) * b_grad
    w = w - lr /np.sqrt(lr_w) * w_grad
 
    # store parameters for plotting
    b_history.append(b)
    w_history.append(w)
 
# plot the figure
plt.contourf(x, y, Z, 50, alpha=0.5, cmap=plt.get_cmap('jet'))
plt.plot([-188.4], [2.67], 'x', ms=12, marker=3, color='orange')
# 李宏毅课程原代码为markeredeweight=3,无法运行,改为了marker=3。
# ms和marker分别代表指定点的长度和宽度。
plt.plot(b_history, w_history, 'o-', ms=3, lw=1.5, color='black')
plt.xlim(-200, -100)
plt.ylim(-5, 5)
plt.xlabel(r'$b$', fontsize=16)
plt.ylabel(r'$w$', fontsize=16)
plt.show()
实验结果:

在这里插入图片描述
对于定制化的Learning Rate后续学到了再更新过来!!!!

猜你喜欢

转载自blog.csdn.net/zjguilai/article/details/89929742