Pytorchチュートリアル住所:pytorchハンドブック
:ロードする時々 githubのページが出てこない、Githubの負荷が解から出ていないから出ていない処理方法GithubのウェブサイトCSSの負荷
そうでない場合は正常に戻って、ホストを変更した後、DNSキャッシュをフラッシュする必要があり、コンピュータが私のhostsファイルが変更されていると語りました。WindowsでDNSキャッシュ方法をフラッシュ:コマンドを入力し、コマンドラインを入力します。ipconfig / flushdnsと
1. Pytorch-MNISTデータセットハンドブック3.2デジタル認識
1.1定義テストセクション:
PRED = output.max(1、keepdim =真)[1]#最も可能性の高いインデックスを見つけます
torch.max()関数--- 説明と例
a = torch.randn(3,3)
torch.max)(a,0) #返回每一列中最大值的那个元素,且返回索引(返回最大元素在这一列的行索引)
torch.max(a,1) #返回每一行中最大值的那个元素,且返回其索引(返回最大元素在这一行的列索引)
ここでは、このです:
output.max(1、keepdim = TRUE)--->各行の最大の要素を返し、二つの配列を返すようにインデックスを返します
output.max(1、keepdim = TRUE)[1]はインデックス配列を取って、二番目の配列を取ることです。
データセットの一部1.2
BATCH_SIZE = 512、60,000のトレーニングセットのサイズ。したがって、合計60,000 / 512 = 117.18
train_loader = torch.utils.data.DataLoader(
datasets.MNIST('data', train=True, download=True,
transform=transforms.Compose([
transforms.ToTensor(),
transforms.Normalize((0.1307,), (0.3081,))
])),
batch_size=BATCH_SIZE, shuffle=True)
len(train_loader)
>> 118
我々は、正規化されたデータ、平均値とデータに基づいて分散0.1307,0.3081であるであるテンソルトーチ、transforms.Normalize((0.1307)(0.3081))にデータを変換し、BATCH_SIZEパラメータtrain_loaderを生成しましたかなり良いセット。
2.マルチGPUのトレーニング
2.1スタンドアロンのマルチGPU torch.nn.DataParalle
用torch.nn.DataParalle
私達はちょうどパラメータとして私たち自身のモデルでは、着信指示することができます
#使用内置的一个模型,我们这里以resnet50为例
model = torchvision.models.resnet50()
#模型使用多GPU
mdp = torch.nn.DataParallel(model)
mdp
2.2はtorch.distributed
2.3 torch.utils.checkpoint