使用keras实现线性回归

版权声明:作者:小白 https://blog.csdn.net/weixin_43687366/article/details/89206145

1、导入相应的模块

import keras
import numpy as np
import matplotlib.pyplot as plt
#按顺序构成的模型
from keras.models import Sequential
#Dense全连接层
from keras.layers import Dense

2、使用numpy生成100个随机点

x_data = np.random.rand(100)
noise = np.random.normal(0,0.01,x_data.shape)
y_data = x_data*0.1 + 0.2 + noise

3、显示随机点

plt.scatter(x_data,y_data)
plt.xlabel('x')
plt.ylabel('y')
plt.title('random')
plt.show()

4、构建一个顺序模型

#构建一个顺序模型
model = Sequential()
#模型中添加一个全连接层
model.add(Dense(units=1,input_dim=1))
#sgd随机梯度下降,mse均方误差
model.compile(optimizer='sgd',loss='mse')

#训练3001个批次
for step in range(3001):
	#每次训练一个批次
	cost = model.train_on_batch(x_data,y_data)
	if step%500 == 0:
		print('cost:',cost)
		

#打印权值和偏置值
w,b = model.layers[0].get_weights()
print('w:',w,'b:',b)

#x_data输入网络中,得到预测值y_pred
y_pred = model.predict(x_data)

#显示随机点
plt.scatter(x_data,y_data)

#显示预测结果
plt.plot(x_data,y_pred,'r-',lw=3)
plt.show()

猜你喜欢

转载自blog.csdn.net/weixin_43687366/article/details/89206145