tensorflow学习笔记3(实战)

1、正则化缓解过拟合

正则化在损失函数中引入模型复杂度指标,利用给w加权值,弱化了训练数据的噪声

一般不会正则化b。

 2、matplotlib.pyplot

 3、搭建模块化的神经网络八股:

前向传播就是搭建网络,设计网络结构(forward.py)

def forward(x,regularizer):   #regularizer是正则化权重
  w=

  b=

  y= 

  return y



def get_weight(shape,regularizer):

  w=tf.Variable()#给w赋初值

  tf.add_to_collection("losses",tf.contrib.layers.12_regularizer(regularizer)(w))

  return w





def get_bias(sahpe):

  b=tf.Variable()

  return b

反向传播就是训练网络,优化网络参数(backward.py)

def backward():
    x = tf.placeholder()
    y_ = tf.placeholder()
    y = forward.forward(x,REGULARIZER)
    global_step=tf.Variable(0,trainable=False)
    loss =


正则化



指数衰减学习率



滑动平均

4、三个模块

生成数据集 generateds.py

前向传播 forward.py

反向传播 backward.py

猜你喜欢

转载自www.cnblogs.com/h694879357/p/12292913.html
今日推荐