python3服务器端GPU使用率低怎么回事?

说实话老子百度了各种方法,根本就不行,为啥?

都是一两行代码的回答,和没回答是一样的。这特么要是能用我会写这个博文

os.environ['CUDA_VISIBLE_DEVICES'] = '0,1'

或者这种:有个毛区别

CUDA_VISIBLE_DEVICES=0,1 python3 train.py

都不能解决问题,统统都是垃圾。

还有一种tf.ConfigProto,这玩意我之前去掉了,这是另外的那个模型的。下面我试试放到TTS的模型中,看看有没有屁用。

事实证明这种也是狗屎一样垃圾。

session_conf = tf.ConfigProto(
        device_count={'CPU': 3, 'GPU': 3},
        gpu_options=tf.GPUOptions(allow_growth=True),
        log_device_placement=False
    )

与之前没区别,真是够了。果断杀死这个程序。

群里大佬给出了pytorch测试GPU是否能用:

return torch.device("cuda" if torch.cuda.is_available() else "cpu")

我知道 有tf的类似的函数,但是为啥子呢??之前出现一大堆东西我还以为能用GPU,如下

但是我在下面看到了False,我恍然大悟,卧槽,我没在nohup.out中返回,下面直接在python3下测试

xx=tf.test.is_gpu_available()
>>> xx
False

卧槽,难道卸载重装cudnn,还是啥玩意,这特么也是个工程啊。。、

群里大佬推荐用anaconda安装,问题是我试了多个anaconda版本,连安装都不能成功,谈何解决问题?

为何我的打开方式总是与别人不一样?

说不出的人生艰难。

另外有相关问题可以加入QQ群讨论,不设微信群

QQ群:868373192 

语音深度学习群

猜你喜欢

转载自blog.csdn.net/SPESEG/article/details/102809751