Tensorflow-GPU训练MTCNN出现错误-Could not create cudnn handle: CUDNN_STATUS_NOT_INITIALIZED

本人环境:

tensorflow-gpu 1.15
cuda 10.0
cudnn 7.6.4

错误原图:

E tensorflow/stream_executor/cuda/cuda_dnn.cc:329] Could not create cudnn handle: CUDNN_STATUS_ALLOC_FAILED在这里插入图片描述

错因和解决方法:

如果你是因为tensorflow-gpu和cuda和cudnn的版本关系出现的报错,那只有重新安装相应的版本了,可参考我给出的版本。
如果你相关配置没有错误的情况下,tensorflow的gpu版本能正常调用,这时候出现这个错误就不是版本不匹配的问题了,严谨来讲就是你的显卡不兼容它的接口,无法正常申请到显存,出现显存设置的问题,CUDNN_STATUS_ALLOC_FAILE,看这个英文也很显而易见了,也就是这个意思,然后只需要在你的python文件中添加以下代码即可
from tensorflow.compat.v1 import ConfigProto
from tensorflow.compat.v1 import InteractiveSession

config = ConfigProto()
config.gpu_options.allow_growth = True
session = InteractiveSession(config=config)

####config = ConfigProto()可在里面可对session进行参数配置,往往里面涉及到allow_soft_placement=False表示不允许tf自动选择一个存在并且可用的设备来运行操作, log_device_placement=False表示不打印log 之前用的Python Shell
####config.gpu_options.allow_growth = True 可申请动态显存
####session = InteractiveSession(config=config)这是让参数生效

解决后结果图:

在这里插入图片描述
程序成功运行,每次迭代之后的准确率、分类损失、bbox损失、landmark损失等都打印出来了。

补充:
你如果在跑程序出现tensorflow的版本兼容问题,而你用的tensorlfow是2.0以下的版本,而你所跑的程序是2.0以上的版本,这时候如果你不想要直接卸载重装的话,就直接通过把
import tensorflow as tf
换成
import tensorflow.compat.v1 as tf
tf.disable_v2_behavior()
即可

猜你喜欢

转载自blog.csdn.net/m0_51004308/article/details/112779725
今日推荐