研究Pytorchの問題点

Pytorchチュートリアル住所:pytorchハンドブック

:ロードする時々 githubのページが出てこない、Githubの負荷が解から出ていないから出ていない処理方法GithubのウェブサイトCSSの負荷

そうでない場合は正常に戻って、ホストを変更した後、DNSキャッシュをフラッシュする必要があり、コンピュータが私のhostsファイルが変更されていると語りました。WindowsでDNSキャッシュ方法をフラッシュ:コマンドを入力し、コマンドラインを入力します。ipconfig / flushdnsと


1. Pytorch-MNISTデータセットハンドブック3.2デジタル認識

1.1定義テストセクション:

PRED = output.max(1、keepdim =真)[1]#最も可能性の高いインデックスを見つけます

torch.max()関数--- 説明と例

a = torch.randn(3,3)
torch.max)(a,0) #返回每一列中最大值的那个元素,且返回索引(返回最大元素在这一列的行索引)
torch.max(a,1) #返回每一行中最大值的那个元素,且返回其索引(返回最大元素在这一行的列索引)

ここでは、このです:

output.max(1、keepdim = TRUE)--->各行の最大の要素を返し、二つの配列を返すようにインデックスを返します

output.max(1、keepdim = TRUE)[1]はインデックス配列を取って、二番目の配列を取ることです。

データセットの一部1.2

BATCH_SIZE = 512、60,000のトレーニングセットのサイズ。したがって、合計60,000 / 512 = 117.18

train_loader = torch.utils.data.DataLoader(
        datasets.MNIST('data', train=True, download=True, 
                       transform=transforms.Compose([
                           transforms.ToTensor(),
                           transforms.Normalize((0.1307,), (0.3081,))
                       ])),
        batch_size=BATCH_SIZE, shuffle=True)
len(train_loader)

>> 118

我々は、正規化されたデータ、平均値とデータに基づいて分散0.1307,0.3081であるであるテンソルトーチ、transforms.Normalize((0.1307)(0.3081))にデータを変換し、BATCH_SIZEパラメータtrain_loaderを生成しましたかなり良いセット。

2.マルチGPUのトレーニング

2.1スタンドアロンのマルチGPU torch.nn.DataParalle

用torch.nn.DataParalle 私達はちょうどパラメータとして私たち自身のモデルでは、着信指示することができます

#使用内置的一个模型,我们这里以resnet50为例
model = torchvision.models.resnet50()
#模型使用多GPU
mdp = torch.nn.DataParallel(model)
mdp

2.2はtorch.distributed

2.3 torch.utils.checkpoint

公開された10元の記事 ウォン称賛10 ビュー7509

おすすめ

転載: blog.csdn.net/qq_41647438/article/details/103080742