Tensorflow: CUDA_ERROR_OUT_OF_MEMORY

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/Felaim/article/details/83857748

最近LZ一直在使用tensorflow,遇到有些小问题,就遇到一个,解决一个,有些一直重复出现,或者是做个笔记,加快小伙伴的使用.

在写测试程序代码的时候出现如下报错,源代码就不贴出来了…

2018-11-07 17:10:30.875135: E tensorflow/stream_executor/cuda/cuda_driver.cc:924] failed to allocate 62.25M (65273856 bytes) from device: CUDA_ERROR_OUT_OF_MEMORY

看看好像怎么连60多兆的空间GPU都分配不出来了,那么碰到这个问题怎么解决呢?

在定义session前,加上一些设置,使得程序更加完整

#tf.ConfigProto函数在创建session的时候,用来对session进行参数配置
config = tf.ConfigProto()
#允许tf动态的申请现存
config.gpu_options.allow_growth = True
#或者限制GPU使用率
config.gpu_options.per_process_gpu_memory_fraction = 0.4
#允许tf自动选择一个存在并且可用的设备来运行操作
config.allow_soft_placement = True
#获取operations和tensor被指派到哪个设备(几号cpu或者gpu)
#会在终端打印出各项操作是在哪个设备上运行
#一般设成False
config.log_device_placement = False
#最后将设置传给session中,再次运行代码,OK,问题解决!
sess = tf.Session(config=config)

代码之路且行且珍惜!小伙伴们今天也要加油( ⊙ o ⊙ )!

猜你喜欢

转载自blog.csdn.net/Felaim/article/details/83857748