Tensorflow计算加速

在tensorflow里可以通过tf.device函数来指定每个运行的设备,可以是GPU也可以是CPU,比如CPU在tensorflow里的名称为/cpu:0,即便电脑里有多个CPU,tensorflow也并不会去区分它们,但是每台设备上的GPU名称却是不一样的,第N个GPU的名称为/gpu:n,第一个GPU名字为/gpu:0,第二个为/gpu:1,以此类推。

此外,tensorflow提供了快捷的方式查看运行每一个运算的设备,也就是在生成会话的时候设置log_device_placement参数来打印运行每个运算的设备

import tensorflow as tf

a = tf.constant([1.0,2.0,3.0],shape = [3], name = 'a')

b = tf.constant([1.0,2.0,3.0],shape = [3],name = 'b')

c = a+b

sess = tf.Session(config = tf.ConfigProto(log_device_placement = True))

print(sess(c))

在已经配置好的GPU环境的tensorflow中,tensorflow会自动优先将运算放置在GPU上

import tensorflow as tf

with tf.device('/cpu:0')

a = tf.constant([1.0,2.0,3.0],shape = [3], name = 'a')

b = tf.constant([1.0,2.0,3.0],shape = [3],name = 'b')

with tf.device('/gpu:1')

c = a+b

sess = tf.Session(config = tf.ConfigProto(log_device_placement = True))

print(sess(c))

这里对常量a,b的生成放在cpu上,加法操作在第二个GPU上.

Attention:

并不是所有的操作都可以在GPU 上运行,就拿tf.Variable()来说,tf.Variable(1,name = '1')这样就是错误的,因为在GPU上, tf.Variable()操作只支持实数型,例如tf.float16,float32,double,而在刚才的举例中是整形。为了避免这样的情况发生在生成会话之前可以加上这样的一条语句:allow_soft_placement,当这个参数设置为True的时候,就可以将GPU无法操作的语句转到cpu上运行

猜你喜欢

转载自www.cnblogs.com/sdibtzhou/p/8918530.html