python神经网络:手写数字识别

代码按照“python神经网络编程”这本书写的。
训练集和测试集下载链接

#构建自己的神经网络
#建立一个三层的神将网络

import numpy
#导入sigmod函数库
import scipy.special
#导入画图库
import matplotlib.pyplot as plt
#确保图片在这个页面,不是额外的窗口
%matplotlib inline


#神经网络类定义
class neuralNetwork:
    
    #初始化神经网络
    def __init__(self,inputnodes,hiddennodes,outputnodes,learningrate):
        
        #设置每一层输入输出隐藏层的节点个数
        self.inodes=inputnodes
        self.hnodes=hiddennodes
        self.onodes=outputnodes
        
        #学习率
        self.lr=learningrate
        
        #链接权重矩阵wih和who
        self.wih=(numpy.random.rand(self.hnodes,self.inodes)-0.5)
        self.who=(numpy.random.rand(self.onodes,self.hnodes)-0.5)
        
        #激活函数采用sigmod函数
        self.activation_function=lambda x: scipy.special.expit(x)
        
        pass
    
    #训练神经网络
    def train(self,inputs_list,targets_list):
        
        #将输入转换为二维数组
        inputs=numpy.array(inputs_list,ndmin=2).T
        targets=numpy.array(targets_list,ndmin=2).T
        
        #进入隐藏层的数据
        hidden_inputs=numpy.dot(self.wih,inputs)
        #隐藏层的输出
        hidden_outputs=self.activation_function(hidden_inputs)
        
        #进入输出层的数据
        final_inputs=numpy.dot(self.who,hidden_outputs)
        #输出层的输出
        final_outputs=self.activation_function(final_inputs)
        
        #误差=(target-actual)
        outputs_errors=targets-final_outputs
        
        #隐藏层的误差
        hidden_errors=numpy.dot(self.who.T,outputs_errors)
        
        #更新隐藏层和输出层之间的权重
        self.who+=self.lr*numpy.dot((outputs_errors*final_outputs*(1.0-final_outputs)),numpy.transpose(hidden_outputs))
        
        #更新输入层和隐藏层之间的权重
        self.wih+=self.lr*numpy.dot((hidden_errors*hidden_outputs*(1.0-hidden_outputs)),numpy.transpose(inputs))
        
        pass
    
    #查询神经网络
    def query(self,inputs_list):
        
        #将输入转换为二维数组
        inputs=numpy.array(inputs_list,ndmin=2).T
        
        #进入隐藏层的数据
        hidden_inputs=numpy.dot(self.wih,inputs)
        #隐藏层的输出
        hidden_outputs=self.activation_function(hidden_inputs)
        
        #进入输出层的数据
        final_inputs=numpy.dot(self.who,hidden_outputs)
        #输出层的输出
        final_outputs=self.activation_function(final_inputs)
        
        return final_outputs

#输入输入隐藏层的节点个数
input_nodes=784
hidden_nodes=200
output_nodes=10

#学习率是0.2
learning_rate=0.2

#创建神经网络实例
n=neuralNetwork(input_nodes,hidden_nodes,output_nodes,learning_rate)
#导入训练集,放入一个list里
training_data_file=open("C:\\Users\\L\\mnist_dataest\\mnist_train.csv",'r')
training_data_list=training_data_file.readlines()
training_data_file.close()

#训练神经网络

#训练5epoch
epochs=5
for e in range(epochs): 
#遍历训练数据
    for record in training_data_list:
        #按照逗号分隔
        all_values=record.split(',')
        #控制输入的尺寸
        inputs=(numpy.asfarray(all_values[1:])/255.0*0.99)+0.01
        #创建目标矩阵
        targets=numpy.zeros(output_nodes)+0.01
        targets[int(all_values[0])]=0.99
        n.train(inputs,targets)
        pass
    pass
#加载测试集
test_data_file=open("C:\\Users\\L\\mnist_dataest\\mnist_test.csv",'r')
test_data_list=test_data_file.readlines()
test_data_file.close()
#测试神经网络
#scorecard用来体现神经网络的性能,初始化为空
scorecard=[]
#遍历测试集
for record in test_data_list:
    all_values=record.split(',')
    #正确答案是第一个标签
    correct_label=int(all_values[0])
    #print(correct_label,'correct label')
    #控制输入的尺寸
    inputs=(numpy.asfarray(all_values[1:])/255.0*0.99)+0.01
    #查询神经网络
    outputs=n.query(inputs)
    #输出的标签是输出节点值最高的一个
    label=numpy.argmax(outputs)
    #print(label,"神经网络的答案")
    #添加正确或者错误到列表中
    if label==correct_label:
        #神经网络输出正确
        scorecard.append(1)
    else:
        scorecard.append(0)
        pass
    pass
#计算神经网络的准确率
scorecard_array=numpy.asarray(scorecard)
print("performance=",scorecard_array.sum()/scorecard_array.size)

猜你喜欢

转载自blog.csdn.net/weixin_44740082/article/details/91881062