【已解决】深度学习failed to allocate 4.67G (5019415296 bytes) from device: CUDA_ERROR_OUT_OF_MEMORY

出现这种问题的情况有两种,一种是没有指定GPU,导致内存不足,第二种是自己的设置导致内存超出。

第一种问题解决办法:

第一步需要指定GPU,代码头部添加代码:

import os
os.environ["CUDA_VISIBLE_DEVICES"] = "1"

第二步:限制当前脚本可用显存,代码头部添加第一行,session 语句进行如第二行的修改

gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.333)
sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options))
#这个0.33是限制性能百分比

#如果是使用ts2的话,会有不兼容问题,则用下面的代码
gpu_options =tf.compat.v1.GPUOptions(per_process_gpu_memory_fraction = 0.33)
sess = tf.compat.v1.Session(config=tf.compat.v1.ConfigProto(gpu_options=gpu_options))

第二种问题解决办法:

(6条消息) GPU很空闲总是提示GPU out of memeory_zhuiyuan2012的博客-CSDN博客

猜你喜欢

转载自blog.csdn.net/qq_43681154/article/details/128884456