ここにディレクトリのタイトルを書きます
3090、cuda および tensorflow 1.x
3090 は cuda11.0+ バージョンのみをサポートしており、tensorflow1.x はメンテナンスされなくなったため、cuda11.0+ をサポートするバージョンはありません。
nvidia は、RTX 3090 や cuda11 などの新しいハードウェアに TF1.x サポートを提供します。既存の tensorflow-gpu パッケージと conda によってインストールされた cuda パッケージをアンインストールし、tensorflow の nvidia バージョンをインストールします。
pip install nvidia-pyindex
pip install nvidia-tensorflow # 会自动安装相关cuda依赖
pip install tensorboard
import tensorflow as tf 和 tf.test.is_gpu_available() 测试,如果出现以下内容WARNING:root:Limited tf.compat.v2.summary API due to missing TensorBoard installation.此时还需要再安装一个.重新安装tensorboard。pip install tensorboard即可解决
pip install tensorboard
import tensorflow as tf および tf.test.is_gpu_available() テストで、次の内容が表示される場合は、警告:root:TensorBoard インストールがないため tf.compat.v2.summary API が制限されています。この時点では、別のものをインストールする必要があります。 1つ。テンソルボードを再取り付けします。pip uninstall tensorboard, pip install tensorboard は解決できます
注: nvidia-tensorflow ウェアハウスでは Python3.8 が必要であるというプロンプトが表示されますが、私は Python3.6 を使用しており、利用可能です。
参照:
https://blog.csdn.net/qq_39543404/article/details/112171851
https://www.cnblogs.com/xikeguanyu/p/16269066.html
https://zhuanlan.zhihu.com/p/521957441
https://www.cnblogs.com/xikeguanyu/p/16269066.html ://blog.csdn.net/znevegiveup1/article/details/115053563
TFとcudaをテストする
1、
#(1)查看TF版本
import tensorflow as tf
tf.__version__ # 此命令为获取安装的tensorflow版本
print(tf.__version__) # 输出版本
tf.__path__ #查看tensorflow安装路径
print(tf.__path__)
#(2)查看cuda是否可用
import tensorflow as tf
print(tf.test.is_gpu_available())#如果结果是True,表示GPU可用
import tensorflow as tf
tf.test.is_gpu_available()
#(3)查看cuda版本
nvidia-smi #系统中自带的cuda
conda list | grep cuda #虚拟环境的cuda或者用pip看包信息
2、
import tensorflow as tf
gpu_device_name = tf.test.gpu_device_name()
print(gpu_device_name)
tf.test.is_gpu_available()
import tensorflow as tf
tf.test.is_built_with_cuda()
print(tf.test.is_built_with_cuda())#返回true表示可用
3、
from tensorflow.python.client import device_lib
# 列出所有的本地机器设备
local_device_protos = device_lib.list_local_devices()
# 打印
print(local_device_protos)
# 只打印GPU设备
[print(x) for x in local_device_protos if x.device_type == 'GPU']
Pytorch と cuda のテスト
import torch
print(torch.__version__)
print(torch.cuda.is_available())
- CUDA バージョン
1. 現在インストールされているバージョンの表示 (nvcc -V)
nvcc (NVIDIA Cuda コンパイラ ドライバー) コマンドを使用して、マシンにインストールされている CUDA バージョンを表示します。 nvcc -V
nvcc -V は、システムに付属する cuda のバージョンを確認します。仮想環境のバージョンを確認するには、テスト用に pytorch および tensorflow ライブラリをインポートする必要があり
pytorch中:print(torch.__version__)
、
tensorflow中:conda list | grep cuda直接在终端里,打开相应环境,进行查看
2. サポートされている最高の CUDA バージョン (nvidia-smi) を確認します。nvidia
-smi コマンドを使用して、ローカル Nvidia グラフィック カード ドライバー情報を確認します。ドライバーがサポートするもの 最高の CUDA バージョン。たとえば、nvidia-smi の場合、以下の CUDA バージョンは、私のコンピュータにインストールできる CUDA の最高バージョンであり、このバージョン番号は下位サポートされており、このバージョン番号よりも古いすべての CUDA パッケージをインストールできます。
tensorflow アンインストール
チェック:
sudo pip show tensorflow
アンインストール使用:
pip uninstall protobuf
pip uninstall tensorflow
pip uninstall tensorflow-gpu
pip Wheel TensorRT のインストール:
nvidia-pyindex パッケージをインストールします。次のコマンド
pip install nvidia-pyindex
を使用してインストールします。インストール後、TensorRT のインストールを開始できます。次のコマンドを使用します:
pip install --upgrade nvidia-tensorrt
pip install nvidia-pyindex
pip install nvidia-tensorrt==8.2.5.1
import tensorrt
print(tensorrt.__version__)
assert tensorrt.Builder(tensorrt.Logger())
参考:https://blog.csdn.net/qq_37541097/article/details/114847600
https://www.cnblogs.com/asnelin/p/15929442.html
tensorflow と pytorch を同時にインストールする場合
、主な考慮事項は cudnn、tensorflow、および pytorch のバージョンです。最初にグラフィックス カードに一致する cuda のバージョンを選択し、次に tensorflow と pytorch の対応する cuda バージョンを選択します。
cuda、cudnn、tensorflow (-gpu)、および pytorch のバージョンを確認します。
参考: https://blog.csdn.net/LIWEI940638093/article/details/113811563
リンク:バージョンインストールリンク リンク