四则运算:
平方:tf.square(),开方:tf.sqrt()
tf.add()、tf.div()、tf.mod()、tf.abs() tf.multiply() tf.subtract() tf.negative()
矩阵运算:
tf.matmul(a,b) //矩阵乘法
数理统计:
均值:tf.reduce_mean(x,reduction_indices=[1]//维度),求和:tf.reduce_sum
最大值/最小值: tf.reduce_max/min
最大值下标 :tf.argmax
tf.cast(x,数据类型)//强制类型转换
tf.nn库:
tf.nn,conv2d(x,w,strides,padding) //卷积
tf.nn.max_pool(x,ksize,strides,padding) //池化
tf.nn.relu() tf.nn.lrn() tf.nn.softmax()
tf.nn.sparse_softmax_cross_entropy_with_logits(logits,labels) //softmax + cross_entropy 注意label不是one-hot的,然后接上一个tf.reduce_mean()
tf.nn.in_top_k(logits,label,k) //判断label是不是在logits前k大的值里,返回值是True和False列表
初始化方法:
tf.truncated_normal(shape,stddev) //阶段正态分布初始化权重,避免完全对称
tf.add_to_collection('loss',v1) //将变量添加到列表
tf.get_collection('loss') //从列表中取出全部‘loss’命名的变量列表
tf.add_n(tf.get_collection('loss')) //将全部loss取出后求和
tensor.get_shape().as_list()