PyTorch - BUGレコードとソリューション

免責事項:この記事はブロガーオリジナル記事です、続くBY-SAのCC 4.0を著作権契約、複製、元のソースのリンクと、この文を添付してください。
このリンク: https://blog.csdn.net/qq_31347869/article/details/97390350

BUG 1

THCudaCheck FAIL file=/opt/conda/conda-bld/pytorch_1524586445097/work/aten/src/THC/THCGeneral.cpp line=844 error=11 : invalid argument

BUG 2

ValueError: Expected more than 1 value per channel when training, got input size [1, 512, 1, 1]

これは、バッチサイズを1に設定することができない、サンプル・ワードを使用してBatchNorm Y = - 計算(X平均(X))/(STD(X)+ EPS)X、中X機能マップが1であるとき、それが表示される場合があります。このような状況に注意を払う、0に出力させる(x)の平均値(x)を意味します。

ほとんどの場合、あなたのランニングを計算するために、より多くのそして1つの値が意味を期待モデル、および現在のバッチのSTDのどこかにnn.BatchNorm層を持っています。
ケースでは、これは現在のバッチのためにそれらを求めるのではなく、実行中の推定値を使用するようにBatchNorm層の動作を変更しますと、データを供給する前に()、あなたのデータを検証model.evalを呼びたいです。
あなたのモデルを訓練したいと大きなバッチサイズを使用できない場合は、InstanceNormに例えばを切り替えることができます。

ここに画像を挿入説明

参考ます。https://blog.csdn.net/u011276025/article/details/73826562

おすすめ

転載: blog.csdn.net/qq_31347869/article/details/97390350