keras学习之Regressor 回归

import numpy as np
from keras.models import Sequential#用来一层一层的去建立神经网络
from keras.layers import Dense#全连接层
import matplotlib.pyplot as plt
np.random.seed(1337)

#创建数据
X = np.linspace(-1,1,200)
np.random.shuffle(X)#打乱数
Y = 0.5*X + 2 + np.random.normal(0,0.05,(200,))
print(X)
print(Y)
#画出数据
plt.scatter(X,Y)
plt.show()
#数据分开
X_train,Y_train = X[:160],Y[:160]
X_test,Y_test = X[160:],Y[160:]

#建立模型
model = Sequential()#用来添加层
model.add(Dense(output_dim = 1,input_dim = 1))#添加全连接层,输入输出的维度为1

#激活模型
model.compile(loss = 'mse',optimizer='sgd')#模型用mse表均方误差,优化器用sgd随机梯度下降法
#-----------以上三行就建好了一个神经网络---------------------#
#训练模型
print('Training----')
for step in range(301):
    cost = model.train_on_batch(X_train,Y_train)#默认的返回值为cost
    if step % 100 == 0:
        print('train cost:',cost)

#结果可视化
Y_pred = model.predict_proba(X_test)
plt.scatter(X_test,Y_test)
plt.plot(X_test,Y_pred)
plt.show()

来源

猜你喜欢

转载自blog.csdn.net/weixin_40849273/article/details/84644408