深度学习实践(1) 线性回归

深度学习实践(1) 线性回归


这次主要是初步用穷举法实现深度学习的线性回归。

假设给出一组数据符合y=2x,(这里的2我们并不知道,是要求的未知量。)

如何求呢?用穷举法。

我们知道线性函数是y=w*x(假设b=0)

设w=1;把x带入,得到y_pre(y的预测值)

而损失函数就是loss=∑(y-y_pre)^2

当loss最小时,也就是得到了最符合的w,很明显,loss是一个二次函数
代码实现:

import numpy as np
import matplotlib.pyplot as plt

# 数据集
x_data = [1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]
n=3# 因为只有三组数据

# 模型 y=w*x
def forward(x):
    return x * w


# 损失函数loss
def loss(x, y):
    y_pred = forward(x)
    return (y_pred - y) ** 2

# 用于画图
w_list = []
mse_list = []

# 穷举法,最后发现当w=2.0时,loss=0,所以w=2时最好
for w in np.arange(0.0, 4.1, 0.1):
    print("当w=", w,"时")
    l_sum = 0
    for x_val, y_val in zip(x_data, y_data):  # zip把两个打包成元组列表
        y_pred_val = forward(x_val)
        loss_val = loss(x_val, y_val)
        l_sum += loss_val
        print("\t", x_val, y_val, y_pred_val, loss_val)
    print("均方误差MSE=", l_sum / 3)
    # 最终的图像为二次函数图像
    w_list.append(w) # w为x轴
    mse_list.append(l_sum / n) # 均方误差为y轴

# Loss=1/n( ∑(y`-y)^2 )
plt.plot(w_list,mse_list)
plt.ylabel('Loss')
plt.xlabel('w')
plt.show()

猜你喜欢

转载自blog.csdn.net/qq_40733911/article/details/114235857
今日推荐