深度学习|Keras识别MNIST手写数字(二)

3629157-1e4acd0e31fe369b.png

数据和方法

今天依旧使用MNIST手写数字,方法也是MLP方法,这次我们让隐含层为1000个神经元。

数据处理

处理还是和上次一样。

  • 图片是28X28,我们要转换为一维的,这样才可以作为我们的输入层。
  • 图片标准化
  • label值换为one-hot编码,做为输出层。

代码:

X_train = X_train.reshape(60000,784).astype('float32')
X_test = X_test.reshape(10000,784).astype('float32')

X_train = X_train/255
X_test = X_test/255

y_train = np_utils.to_categorical(y_train)
y_test = np_utils.to_categorical(y_test)

MLP建模

建立模型

这次我们在中间加入的为1000个神经元,我们只需要简单修改下代码即可。

from keras.models import Sequential
from keras.layers import Dense

model = Sequential()
model.add(Dense(units=1000, 
                input_dim=784, 
                kernel_initializer='normal', 
                activation='relu'))
model.add(Dense(units=10, 
                kernel_initializer='normal', 
                activation='softmax'))
模型训练
model.compile(loss='categorical_crossentropy', 
              optimizer='adam', metrics=['accuracy'])

train_history = model.fit(x=X_train,
                         y=y_train,validation_split=0.2, 
                         epochs=10, batch_size=200,verbose=2)

这里我们将结果可视化,发现训练集精度高,而测试集的精度上升却很慢,这是典型的过拟合,所以接下来用dropout方法,防止一定的过拟合。

3629157-15c9425e86fcb445.png
dropout防止过拟合

这里我们只需要在隐含层后面add一个Dropout即可。结果看出,过拟合得到很大的改正,而且精度也提高了不少。

from keras.models import Sequential
from keras.layers import Dense

model = Sequential()
model.add(Dense(units=1000, 
                input_dim=784, 
                kernel_initializer='normal', 
                activation='relu'))

model.add(Dropout(0.5))  ###加入dropout

model.add(Dense(units=10, 
                kernel_initializer='normal', 
                activation='softmax'))
3629157-5067ee6a8c37f14b.png

猜你喜欢

转载自blog.csdn.net/weixin_33997389/article/details/87596677