CNN - 線形回帰とKerasの非線形回帰エントリー

はじめに:

1.
Jupyter:私は、Pythonのコンパイラを使用していました。
説明
Jupyter Ipythonノートブックは、アップグレードされたバージョンであるブラウザの運営に直接書き込むことで、Webアプリケーションです。特に軽量、エレガントなインターフェイス、非常に便利。
次のようにインタフェースがある:
ここに画像を挿入説明
インストールおよび使用:
PIPインストールjupyter
開放端(オープンの調製に直接ブラウザ):
jupyterノート
ショートカット:
SHIFT + TABを+タブ2つの方法が記載さビューシフトにカーソル位置パラメータバッターを移動する
例は次の通りであります:
ここに画像を挿入説明

具体的に参照してください。
https://jupyter.org/
https://www.jianshu.com/p/f3c3dd636b8a
2.
私は、単に個人的な研究ノート以下、kerasを学ぶために非常に詳細にコードのコメントを開始しました。より多くのビデオを見ることができます知りたい: https://www.bilibili.com/video/av40787141?from=search&seid=14045366417315862159

線形回帰:

import keras
import numpy as np
#绘图包
import matplotlib.pyplot as plt
#Sequential按顺序构成的模型
from keras.models import Sequential
#Dense全连接层
from keras.layers import Dense


#使用numpy生成100个随机点
x_data=np.random.rand(100)
#生成与随机点相同形状的干扰点
noise=np.random.normal(0,0.01,x_data.shape)
#一次函数y=kx+b.    noise:干扰使之离散偏移
y_data=x_data*0.1+0.2+noise

#显示随机点
plt.scatter(x_data,y_data)
plt.show()

ここに画像を挿入説明

#构建一个顺序模型
model=Sequential()
#在模型中添加一个全连接层   输入维度和输出维度都为1
model.add(Dense(units=1,input_dim=1))

#设置学习过程
#sgd:随机梯度下降法
#mse:均方误差
#optimizer:优化器 学习率为:0.01
#loss:计算损失
model.compile(optimizer='sgd',loss='mse')

#训练3001个批次
for step in range(3001):
    #每次训练一个批次    训练模型
    cost=model.train_on_batch(x_data,y_data)
    #每500个batch打印一次cost值
    if step % 500==0:
        print('cost:',cost)
        
#打印权值和偏置值
W,b=model.layers[0].get_weights()
print('W:',W,'b',b)

#x_data输入网络中,得到预测值y_pred
y_pred=model.predict(x_data)
#显示随机点
plt.scatter(x_data,y_data)
#显示预测的结果   用一条宽度为3,颜色为红色的线显示预测值
plt.plot(x_data,y_pred,'r-',lw=3)
plt.show()



ここに画像を挿入説明

第二に、非線形回帰:

import keras
import numpy as np
#绘图包
import matplotlib.pyplot as plt
#Sequential按顺序构成的模型
from keras.models import Sequential
#Dense全连接层
from keras.layers import Dense,Activation
#导入新的SDG优化器
from keras.optimizers import SGD
#使用numpy生成-0.5~0.5区间内100个随机点
x_data=np.linspace(-0.5,0.5,200)
#从正态(高斯)分布中随机抽取样本生成与随机点相同形状的干扰点 
noise=np.random.normal(0,0.02,x_data.shape)
#二次函数:y=x~     noise:干扰使之离散偏移
y_data=np.square(x_data)+noise

#显示随机点
plt.scatter(x_data,y_data)
plt.show()

ここに画像を挿入説明

#构建一个顺序模型
model=Sequential()
#在模型中添加一个全连接层   
#1-10-1    添加一个隐藏层(10个神经元)
model.add(Dense(units=10,input_dim=1))
#model.add(Dense(units=1,input_dim=10))
model.add(Dense(units=1))


#设置学习过程
#sgd:随机梯度下降法
#mse:均方误差
#optimizer:优化器 学习率为:0.01
#loss:计算损失
#model.compile(optimizer='sgd',loss='mse')

#定义优化算法    之前SGD默认的学习率为:0.01 对于这个迭代次数大概要几万次,而现在只有3000次,所以要加大学习率
sgd=SGD(lr=0.3)
model.compile(optimizer=sgd,loss='mse')

#训练3001个批次
for step in range(3001):
    #每次训练一个批次    训练模型
    cost=model.train_on_batch(x_data,y_data)
    #每500个batch打印一次cost值
    if step % 500==0:
        print('cost:',cost)
        
#打印权值和偏置值
W,b=model.layers[0].get_weights()
print('W:',W,'b:',b)

#x_data输入网络中,得到预测值y_pred
y_pred=model.predict(x_data)
#显示随机点
plt.scatter(x_data,y_data)
#显示预测的结果   用一条宽度为3,颜色为红色的线显示预测值
plt.plot(x_data,y_pred,'r-',lw=3)
plt.show()

ここに画像を挿入説明

#上默认没有激活函数( activation=None,),那只是线性的    所以要添加激活函数



#构建一个顺序模型
model=Sequential()
#在模型中添加一个全连接层   
#1-10-1    添加一个隐藏层(10个神经元)
model.add(Dense(units=10,input_dim=1))
#添加激活函数tanh   tanh在大多数情况下比sigomid函数好用
model.add(Activation('tanh'))
#model.add(Dense(units=1,input_dim=10))
model.add(Dense(units=1))
model.add(Activation('tanh'))


#设置学习过程
#sgd:随机梯度下降法
#mse:均方误差
#optimizer:优化器 学习率为:0.01
#loss:计算损失
#model.compile(optimizer='sgd',loss='mse')

#定义优化算法    之前SGD默认的学习率为:0.01 对于这个迭代次数大概要几万次,而现在只有3000次,所以要加大学习率
sgd=SGD(lr=0.3)
model.compile(optimizer=sgd,loss='mse')

#训练3001个批次
for step in range(3001):
    #每次训练一个批次    训练模型
    cost=model.train_on_batch(x_data,y_data)
    #每500个batch打印一次cost值
    if step % 500==0:
        print('cost:',cost)
        
#打印权值和偏置值
W,b=model.layers[0].get_weights()
print('W:',W,'b:',b)

#x_data输入网络中,得到预测值y_pred
y_pred=model.predict(x_data)
#显示随机点
plt.scatter(x_data,y_data)
#显示预测的结果   用一条宽度为3,颜色为红色的线显示预测值
plt.plot(x_data,y_pred,'r-',lw=3)
plt.show()

ここに画像を挿入説明

リリース8元の記事 ウォン称賛18 ビュー723

おすすめ

転載: blog.csdn.net/qq_44222849/article/details/104532027