最近、紙は他の人のコードを実行してそれを試す必要があります。研究室のパートナーは彼の1060グラフィックカードで実行できますが、私は常にサーバーで実行して問題が発生しました。まず、私の最終的な構成:
Python3.6.6 + Pytorch1.2.0 + cudatoolkit10.0.130 + cudnn7.6.0 + torchvision0.4.0、これは私が最後に成功した後に使用したバージョンです。
構成プロセス中に発生したいくつかの問題についてお話します。
1. RuntimeError:CuDNNエラー:CUDNN_STATUS_SUCCESSエラー。これはpythonバージョンの問題が原因であるという投稿があり、元のpython3.6.7が3.6.6に置き換えられています。
2.次に、RuntimeError:CuDNNエラー:CUDNN_STATUS_SUCCESSエラー
この問題については、多くの投稿で、2080のグラフィックスカードにはcuda10以上を使用する必要があると言われているため、基本的に最初にcudaバージョンをロックし、次にcuda10.1.168を試してからcuda10.0.130を使用します。コマンド:conda install cudatoolkit == 10.0 .130
3. cudnnをインストールします。condainstall cudnnを直接使用してインストールします。それはcudaバージョンに対応するインストールパッケージを選択します。
3.最後にPytorchをインストールします。公式Webサイトhttps://pytorch.org/get-started/locally/からインストールコマンドを取得できます。10.0バージョンのcudaを選択してください。結果のコマンドは次のとおりです。conda install pytorch torchvision cudatoolkit = 10.0 -c pytorch
4.それからまた別の間違い[笑いと泣き声]がありました。。。RuntimeError:CUDA out of memory。352.00 MiB(GPU 0; 7.80 GiB合計容量; 6.45を割り当てようとしました
ハハ、このエラー、パニックに陥らないでください、それはあなたの環境の問題ではないかもしれません、あなたはbatch_sizeの値を減らすことを試みることができます、あなたは1、2、4、8、16のようなより小さな値を設定できます... 。。最後に、あなたに合った値を見つけてください。
記録したいという主な理由で、皆様のお役に立てれば幸いです。