tensorflow 1.x および 3090、cuda デプロイメント

ここにディレクトリのタイトルを書きます

3090、cuda および tensorflow 1.x

3090 は cuda11.0+ バージョンのみをサポートしており、tensorflow1.x はメンテナンスされなくなったため、cuda11.0+ をサポートするバージョンはありません。
nvidia は、RTX 3090 や cuda11 などの新しいハードウェアに TF1.x サポートを提供します。既存の tensorflow-gpu パッケージと conda によってインストールされた cuda パッケージをアンインストールし、tensorflow の nvidia バージョンをインストールします。

pip install nvidia-pyindex
pip install nvidia-tensorflow  # 会自动安装相关cuda依赖

pip install tensorboard
import tensorflow as tf 和 tf.test.is_gpu_available() 测试,如果出现以下内容WARNING:root:Limited tf.compat.v2.summary API due to missing TensorBoard installation.此时还需要再安装一个.重新安装tensorboard。pip install tensorboard即可解决

pip install tensorboard
import tensorflow as tf および tf.test.is_gpu_available() テストで、次の内容が表示される場合は、警告:root:TensorBoard インストールがないため tf.compat.v2.summary API が制限されています。この時点では、別のものをインストールする必要があります。 1つ。テンソルボードを再取り付けします。pip uninstall tensorboard, pip install tensorboard は解決できます
注: nvidia-tensorflow ウェアハウスでは Python3.8 が必要であるというプロンプトが表示されますが、私は Python3.6 を使用しており、利用可能です。
参照:
https://blog.csdn.net/qq_39543404/article/details/112171851
https://www.cnblogs.com/xikeguanyu/p/16269066.html
https://zhuanlan.zhihu.com/p/521957441
https://www.cnblogs.com/xikeguanyu/p/16269066.html ://blog.csdn.net/znevegiveup1/article/details/115053563

TFとcudaをテストする

1#(1)查看TF版本
import tensorflow as tf
tf.__version__        # 此命令为获取安装的tensorflow版本
print(tf.__version__) # 输出版本
tf.__path__			   #查看tensorflow安装路径
print(tf.__path__)

#(2)查看cuda是否可用
import tensorflow as tf
print(tf.test.is_gpu_available())#如果结果是True,表示GPU可用

import tensorflow as tf
tf.test.is_gpu_available()

#(3)查看cuda版本
nvidia-smi #系统中自带的cuda

conda list | grep cuda #虚拟环境的cuda或者用pip看包信息


2import tensorflow as tf
gpu_device_name = tf.test.gpu_device_name()
print(gpu_device_name)
tf.test.is_gpu_available()

import tensorflow as tf
tf.test.is_built_with_cuda()
print(tf.test.is_built_with_cuda())#返回true表示可用


3from tensorflow.python.client import device_lib
 # 列出所有的本地机器设备
local_device_protos = device_lib.list_local_devices()
# 打印
print(local_device_protos)
# 只打印GPU设备
[print(x) for x in local_device_protos if x.device_type == 'GPU']

Pytorch と cuda のテスト

import torch
print(torch.__version__)
print(torch.cuda.is_available())
  • CUDA バージョン
    1. 現在インストールされているバージョンの表示 (nvcc -V)
    nvcc (NVIDIA Cuda コンパイラ ドライバー) コマンドを使用して、マシンにインストールされている CUDA バージョンを表示します。 nvcc -V
    nvcc -V は、システムに付属する cuda のバージョンを確認します。仮想環境のバージョンを確認するには、テスト用に pytorch および tensorflow ライブラリをインポートする必要があり
    pytorch中:print(torch.__version__)
    tensorflow中:conda list | grep cuda直接在终端里,打开相应环境,进行查看
    2. サポートされている最高の CUDA バージョン (nvidia-smi) を確認します。nvidia
    -smi コマンドを使用して、ローカル Nvidia グラフィック カード ドライバー情報を確認します。ドライバーがサポートするもの 最高の CUDA バージョン。たとえば、nvidia-smi の場合、以下の CUDA バージョンは、私のコンピュータにインストールできる CUDA の最高バージョンであり、このバージョン番号は下位サポートされており、このバージョン番号よりも古いすべての CUDA パッケージをインストールできます。

tensorflow アンインストール
チェック:
sudo pip show tensorflow
アンインストール使用:
pip uninstall protobuf
pip uninstall tensorflow
pip uninstall tensorflow-gpu

pip Wheel TensorRT のインストール:
nvidia-pyindex パッケージをインストールします。次のコマンド
pip install nvidia-pyindex
を使用してインストールします。インストール後、TensorRT のインストールを開始できます。次のコマンドを使用します:
pip install --upgrade nvidia-tensorrt

pip install nvidia-pyindex
pip install nvidia-tensorrt==8.2.5.1

import tensorrt
print(tensorrt.__version__)
assert tensorrt.Builder(tensorrt.Logger())

参考:https://blog.csdn.net/qq_37541097/article/details/114847600
https://www.cnblogs.com/asnelin/p/15929442.html

tensorflow と pytorch を同時にインストールする場合
、主な考慮事項は cudnn、tensorflow、および pytorch のバージョンです。最初にグラフィックス カードに一致する cuda のバージョンを選択し、次に tensorflow と pytorch の対応する cuda バージョンを選択します。
cuda、cudnn、tensorflow (-gpu)、および pytorch のバージョンを確認します。
参考: https://blog.csdn.net/LIWEI940638093/article/details/113811563
リンク:バージョンインストールリンク リンク

おすすめ

転載: blog.csdn.net/weixin_44986037/article/details/132254050