利用tensorflow建立简单的神经网络所需要的几条简单语句

1.tf.placeholder(tf.float32,[None,N])#为训练集设置占位符,N为图像数据的总大小或标签的总大小
2.tf.reshape(x,[batch,in_height,in_weight,channels])#将训练数据整理为卷积所需要的大小格式
3.tf.Variable(tf.truncated_normal(shape,stddev = 0.1))#截断正态分布初始化模型参数
4.tf.nn.relu()#激活函数Relu
5.tf.nn.conv2d(x,Filter,strides = [1,1,1,1],padding = padding)#卷积函数
6.tf.nn.max_pool(x,ksize = [1,2,2,1],strides = [1,2,2,1],padding = padding)#最大池化函数,一般不在batch和channels上进行池化,故设置为1,ksize为池化核的大小,这里表示大小为2x2。
7.tf.reduce_mean(x,axis,keep_dims = False,name = None,reduction_indices = None)#axis = 0,垂直方向约减,axis = 1,水平方向约减。axis = [0,1]或[1,0],按顺序约减。keep_dims,表示是否保留维度信息
8.tf.matmul(x,W)#实现两个tensor(矩阵)的相乘
9.tf.nn.softmax_cross_entropy_with_logits(labels = y_,logits = y_out)#交叉熵损失函数
10.tf.train.AdamOptimizer(learning_rate).minimize(loss_function)#优化函数,实现反向传播
11.tf.equal(a,b)#判断a,b中,对应位置的元素是否一致,并返回一个bool型数组
12.tf.cast(x, dtype, name=None)#强制类型转换,dtype为目标数据类型
发布了36 篇原创文章 · 获赞 4 · 访问量 8053

猜你喜欢

转载自blog.csdn.net/qq_41368074/article/details/102537501
今日推荐