Tensorflow 常用函数总结

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/u014539580/article/details/79483249

四则运算:

    平方:tf.square(),开方:tf.sqrt()

    tf.add()、tf.div()、tf.mod()、tf.abs() tf.multiply()  tf.subtract()  tf.negative()

矩阵运算:

    tf.matmul(a,b) //矩阵乘法

数理统计:

    均值:tf.reduce_mean(x,reduction_indices=[1]//维度),求和:tf.reduce_sum

    最大值/最小值: tf.reduce_max/min

    最大值下标 :tf.argmax

tf.cast(x,数据类型)//强制类型转换

tf.nn库:

    tf.nn,conv2d(x,w,strides,padding) //卷积

    tf.nn.max_pool(x,ksize,strides,padding) //池化

    tf.nn.relu()  tf.nn.lrn()     tf.nn.softmax()

    tf.nn.sparse_softmax_cross_entropy_with_logits(logits,labels) //softmax + cross_entropy 注意label不是one-hot的,然后接上一个tf.reduce_mean()

    tf.nn.in_top_k(logits,label,k) //判断label是不是在logits前k大的值里,返回值是True和False列表

初始化方法:

    tf.truncated_normal(shape,stddev) //阶段正态分布初始化权重,避免完全对称

tf.add_to_collection('loss',v1) //将变量添加到列表

tf.get_collection('loss') //从列表中取出全部‘loss’命名的变量列表

tf.add_n(tf.get_collection('loss')) //将全部loss取出后求和

tensor.get_shape().as_list()

猜你喜欢

转载自blog.csdn.net/u014539580/article/details/79483249