AutoDL クラウド サーバー インスタンスを作成し、GPU 環境をインストールする (3)

更新が長らく遅れてしまいました~、このブログを読む前に必ず読んでください: AutoDL クラウド サーバー インスタンスの作成と GPU 環境のインストール (1)_フィッシュ ボールを食べる Shen Shen のブログ - CSDN ブログ

そして、AutoDL クラウド サーバー インスタンスを作成し、GPU 環境をインストールします (2)_Shenshen のブログ - CSDN blog_gpu クラウド環境 

この2つのブログです。

それでは、AutoDL クラウド サーバー インスタンスの作成と GPU 環境のインストールに関する前回のブログはこちらです~

(1) 前 2 つの記事の基本環境に基づいて、最初に torch をインストールします。私は次のバージョンを使用します (インスタンスを作成する環境に対応している必要があることに注意してください)。

 上記の画像ファイルはインターネット上で見つける必要があるため、ここでは多くを述べません。イメージをネットワーク ディスクにアップロードすることをお勧めします。後で複数のインスタンスをインストールする方が便利ですが、同時に、同じリージョン内のサーバーのネットワーク ディスクにイメージをアップロードする必要があることに全員が注意する必要があります。次に、対応するネットワーク ディスク ディレクトリに移動し、pip を使用してインストールします。

 次のプロンプトが表示されれば、インストールは成功しています。

(2) 次のステップは torchvision をインストールすることです。私は次のバージョンを使用します。

 同様に、インターネット上でイメージ ファイルを見つけて、pip を使用してインストールする必要もあります。

次の行は、torchvision が正常にインストールされたことも示しています。
 

(3) 最後のステップは torchaudio をインストールすることです。私は次のバージョンを使用します。

 同様に、イメージ ファイルを見つけて、pip でインストールする必要もあります。

 次の行は、torchaudio が正常にインストールされたことを示しています。

 (4) Jupyterページ更新

1. py38 環境で conda install ipykernel と入力します。

2. 入力: ipython kernel install --user --name=py38

jupyter ページでは、以下に追加の基本環境があることがわかります。

 (5) リモートリンク

vscode エディターを開き、左下隅のアイコンをクリックします。

 インスタンスの SSH とパスワードのリモート リンクを入力します。

(6) 最初に構成環境をアクティブ化し、次のコードを実行して GPU が正常に構成されているかどうかを確認します。

1. 構成環境をアクティブ化します。

2. 次のコードを実行します

import torchvision
import torch
print(torchvision.__version__)

print(torch.cuda.is_available())

次の結果が表示され、構成が成功したことが示されます。

 

 

Supongo que te gusta

Origin blog.csdn.net/qq_43781887/article/details/127077452
Recomendado
Clasificación