githubにダウンロードされたコードは、Pythonコードまたはプロジェクトの場合、通常は環境に依存します。異なるパッケージがダウンロードされるたびに、以前のパッケージバージョンが上書きされます。したがって、コードを実行するには、アルゴリズムと仮想環境が必要になることがよくあります。
このgithubプロジェクトコードを例として、プロジェクトの実行方法を紹介します(コードアドレス、このアルゴリズムはCIKM2020ペーパー「FastAttributedMultiplex Heterogeneous Network Embedding」のソースコードであり、ダウンロードしてサーバーに解凍します)
1サーバーに接続します
2サーバーの仮想環境を表示します
conda env list
或 conda info -e
3仮想環境を作成します
conda create -n env_name python=X.X
私が使用した名前はFAME_py36で、選択したバージョンは3.6です。組み込みライブラリをダウンロードするかどうかを後で尋ねられます。yを選択してください。
4仮想環境をアクティブ化します
source activate FAME_py36
5依存パッケージをインストールします
pip install -r requirments.txt
ps:最初にFAME-masterパスにアクセスしてください。そうしないと、要件ファイルが見つかりません。
6コードを実行します
python main.py
7仮想環境を閉じます
ソースの非アクティブ化
または非アクティブ化(Windowsシステム)
FAME_py36仮想環境を削除する必要がある場合:conda remove -n FAME_py36 --all
FAME_py36仮想環境でパッケージを削除する必要がある場合:conda remove --name FAME_py36 package_name
異なるバージョンのCUDAアクセラレーションをインストールする必要がある場合は、次のコマンドを参照できます。参照URL
Linux and Windows
# CUDA 9.2
conda install pytorch==1.6.0 torchvision==0.7.0 cudatoolkit=9.2 -c pytorch
# CUDA 10.1
conda install pytorch==1.6.0 torchvision==0.7.0 cudatoolkit=10.1 -c pytorch
# CUDA 10.2
conda install pytorch==1.6.0 torchvision==0.7.0 cudatoolkit=10.2 -c pytorch
# CPU Only
conda install pytorch==1.6.0 torchvision==0.7.0 cpuonly -c pytorch
CUDAアクセラレーションコマンドがあるかどうかを確認します。Webサイトを参照してください
import torch
torch.cuda.is_available()
falseの場合は、最初にCUDAバージョンを確認する必要があります
nvcc -V
私のアイデアは9.0ですが、2つのアイデアがあります。1つはCUDAドライバーを更新すること、もう1つは対応するpytorchとtorchvisionをインストールすること、上記のリファレンスWebサイトから対応するバージョンをダウンロードすることです。
ドライバーのバージョンを確認してください:nvida-smi
Tesla K40C構成: