TensorFlow(2) 非线性回归(一个隐藏层)

非线性回归

    #使用numpy生成200个随机点
    #np.linspace(-0.5,0.5,200)#表示在-0.5到0.5之间生成200个随机点,均匀分布
    #np.newaxis:将原本[0,1,2,3]排列的矩阵转置为
    [1,
     2,
     3]这样的排列
    x_data=np.linspace(-0.5,0.5,200)[:,np.newaxis] #表示生成200行一列的数据

    #生成一些干扰项,和x_data形状一致
    noise=np.random.normal(0,0.02,x_data.shape)
    y_data=np.square(x_data)+noise

    #定义两个占位符placeholder
    x=tf.placeholder(tf.float32,[None,1])#[None,1]表示形状,随机行,1列
    y=tf.placeholder(tf.float32,[None,1])

    #定义神经网络的中间层
    Weights_L1=tf.Variable(tf.random_normal([1,10]))#连接输入层和中间层的神经元。输入层是一个神经元,中间层有10个神经元

    biaes_L1=tf.Variable(tf.zeros([1,10]))#偏执值全部初始化为0 ,也是1个输入神经元和10个中间神经元

    Wx_plus_b_L1=tf.matmul(x,Weights_L1)+biaes_L1#tf.matmul(x,Weights_L1)表示一个矩阵的乘法

    L1=tf.nn.tanh(Wx_plus_b_L1)#中间层输出,双曲正切函数作为激活函数

    #定义神经网络输出层
    Weights_L2=tf.Variable(tf.random_normal([10,1]))
    biaes_L2=tf.Variable(tf.zeros([1,1]))#表示只有一个输出层
    Wx_plus_b_L2=tf.matmul(L1,Weights_L2)+biaes_L2
    prediction=tf.nn.tanh(Wx_plus_b_L2)

    #二次代价函数
    loss=tf.reduce_mean(tf.square(y-prediction))

    #使用梯度下降法训练
    train_step=tf.train.GradientDescentOptimizer(0.1).minimize(loss)

    with tf.Session() as sess:
         #变量的初始化
        sess.run(tf.global_variables_initializer())
        #训练
        for _ in range(2000):
             #训练通过feed_dict()传值
            sess.run(train_step,feed_dict={x:x_data,y:y_data})

         #获得预测值
        prediction_value=sess.run(prediction,feed_dict={x:x_data})

        #画图
        plt.figure()
        plt.scatter(x_data,y_data) #x_data,y_data的散点图
        plt.plot(x_data,prediction_value,'r-',lw=5)#红色实线
        plt.show()

结果图:


猜你喜欢

转载自blog.csdn.net/yiyiholic/article/details/80064689
今日推荐