Pytorchノート(2)知人Pytorch

まず、人工ニューラルネットワークライブラリ

Pytorch  ----コンピュータが人工ニューロン+ + +右の重量を選択するための人工ニューラルネットワークの構築を実現するために、ニューラルネットワークの構造を決定しましょう

(1)人工ニューラルネットワークの構造を決定します。 

Pytorchは、ニューラルネットワークに伝える必要があるニューロンの数を   各ニューロンがどのようにそのような入力と出力の非線形関数としての[]  各ニューロン接続の

(2)ニューロンの重み値を決定します。

ただ、教えてpytorch重量値の種類が良いです

(3)プロセス入力および出力:

pytorchと他のライブラリは、と協力し、入力と出力処理ニューラルネットワークを支援することができます

 

 

第二に、使用PytorchはミニAlphaGoを達成します

 チェスの最適な戦略を見つけるために、G機能とみなさ入賞三つの入力、チェスの次のステップとして見Y、として見X [0] X [1]〜X [2]現在の状況であることができます

 

我々は唯一のニューラルネットワークを構築する必要があり、関係yを形成するために、Xから分かりません

ニューロンはある、pytorchが重い右のニューロンを見つけるのを助けることができるどのくらいの重量指示する必要がありません

ステップ:

単にあなたは、接続の前と後のコードの下4をすることができます置きます

(1)ニューラルネットワークの定義を

from torch.nn import Linear,ReLU,Sequential
net = Sequential(
    Linear(3,8), #第一层 8 个神经元
    ReLU(),# 第一层神经元的 非线性函数是max(·,0)
    Linear(8,8),  #第二层  8个神经元
    ReLU(),#非线性函数是max(·,0)
    Linear(8,1),  #第三层 1 个神经元
)

 这个序列中 有三个Linear 类实例 ————>  说明这个 神经网络 有3层

第一个Linear 类实例 用参数 3 8 来构造,这两个参数 说明每个神经元都有 3个输入,一共有8 个神经元

这个序列中有两个ReLU 类实例,也就是说,其中两个层的神经元的非线性函数都是 max(·,0)

 

这个神经网络最后一层没有使用非线性函数 max(·,0)  ————原因: 我们希望将要制作的 应用既能输出≥0 的结果,也能输出<0 的结果

 

(2)测试函数g()

def g(x,y):
    x0,x1,x2 = x[:,0] ** 0,x[:,1] ** 1,x[:,2] ** 2
    y0 = y[:,0]
    return (x0 + x1 + x2) * y0 - y0 * y0 - x0 * x1 * x2

 

 

 

 (3)寻找合适的神经元的权重

import torch
from torch.optim import Adam
optimizer = Adam(net.parameters())
for step in range(1000):
    optimizer.zero_grad()
    x = torch.randn(1000,3)
    y = net(x)
    outputs = g(x,y)
    loss = -torch.sum(outputs)
    loss.backward()
    optimizer.step()
    if step % 100 == 0:
        print('第{}次迭代损失 = {}'.format(step,loss))
第0次迭代损失 = -533.194091796875
第100次迭代损失 = -1128.9976806640625
第200次迭代损失 = -1480.289794921875
第300次迭代损失 = -1731.8543701171875
第400次迭代损失 = -1867.0120849609375
第500次迭代损失 = -1623.46728515625
第600次迭代损失 = -1827.7152099609375
第700次迭代损失 = -1860.97216796875
第800次迭代损失 = -1743.3468017578125
第900次迭代损失 = -1622.2218017578125

 

代码在第三行构造了优化器 optimizer,这个优化器每次可以改良所有权重值,但是这个改良不是一步到位的

需要让优化器反复循环很多次【后面缩进的语句都是要循环的内容】  ————   每次需要告诉优化器 每次改良的依据是什么

通过 optimizer.step()  完成权重的改良

完成后,就训练好了神经网络

 

 

 

 

(4)测试神经网络的性能

#生成测试数据
x_test = torch.randn(2,3)
print('测试输入:{}'.format(x_test))
# 查看神经网络的计算结果
y_test = net(x_test)
print ('人工神经网络计算结果: {}'.format(y_test))
print('g的值:{}'.format(g(x_test,y_test)))
#根据理论,计算参考答案
def argmax_g(x):
    x0,x1,x2 = x[:,0] ** 0,x[:,1] ** 1,x[:,2] ** 2
    return 0.5 * (x0 + x1 + x2)[:, None]
yref_test = argmax_g(x_test)
print('理论最优值:{}'.format(yref_test))
print('g的值:{}'.format(g(x_test,yref_test)))
测试输入:tensor([[ 0.1865,  1.4210,  1.1290],
        [-0.2137,  0.1621,  0.9952]])
人工神经网络计算结果: tensor([[1.9692],
        [1.0804]], grad_fn=<AddmmBackward>)
g的值:tensor([1.5885, 0.9977], grad_fn=<SubBackward0>)
理论最优值:tensor([[1.8479],
        [1.0762]])
g的值:tensor([1.6032, 0.9977])

 

可以断定,我们的神经网络 已经正确地 输出了最优结果 

 

 由于 验证代码的输入是随机确定的。所以每次运行的输入和输出都不一样

 

おすすめ

転載: www.cnblogs.com/expedition/p/11369239.html