【深度学习】paddlepaddle——基于多层神经网络的图像识别案例

  1 # 1、导包
  2 import paddle.fluid as fluid
  3 import paddle
  4 import time
  5 
  6 start = time.time()
  7 
  8 
  9 def test_program(exe, feeder, program, fetch_list, reader):
 10     """
 11     测试进程
 12     :param exe:执行器
 13     :param feeder: 数据与网络关系
 14     :param program: 测试主进程
 15     :param fetch_list: 需要执行之后返回的损失与准确率
 16     :param reader: 测试reader
 17     :return:
 18     """
 19     # 训练次数
 20     count = 0
 21     # 整个测试集的总损失
 22     sum_loss = 0
 23     # 整个训练集的准确率
 24     sum_acc = 0
 25     for test_data in reader():
 26         test_avg_loss_value, test_acc_values = exe.run(
 27             program=program,  # 测试主进程
 28             feed=feeder.feed(test_data),  # 给测试喂数据
 29             fetch_list=fetch_list  # 需要执行之后返回的值
 30         )
 31 
 32         sum_loss += test_avg_loss_value
 33         sum_acc += test_acc_values
 34         count += 1
 35     # 得到整个训练集的平均损失,与整个训练集的准确率
 36     test_avg_loss = sum_loss / count
 37     test_acc = sum_acc / count
 38 
 39     return test_avg_loss, test_acc
 40 
 41 
 42 # 2、数据处理---paddlepaddle 自带的mnist数据已经经过了数据处理
 43 
 44 # 3、定义reader
 45 # paddlepaddle给我们已经定义好了reader,只需要去调用
 46 
 47 # 4、指定训练场所
 48 place = fluid.CPUPlace()
 49 
 50 # 5、配置网络
 51 # 特征数据层
 52 image = fluid.layers.data(name="image", shape=[1, 28, 28], append_batch_size=True, dtype="float64")
 53 # 目标数据层
 54 label = fluid.layers.data(name="label", shape=[1], append_batch_size=True, dtype="int64")
 55 # 设计2个隐层 一个输出层 共3层的fc网络
 56 h1 = fluid.layers.fc(input=image, size=128, name="h1", act="relu")
 57 h2 = fluid.layers.fc(input=h1, size=64, name="h2", act="relu")
 58 
 59 # 输出层
 60 y_predict = fluid.layers.fc(input=h2, size=10, name="output_layer", act="softmax")
 61 
 62 # 6、损失
 63 # 交叉熵损失
 64 loss = fluid.layers.cross_entropy(input=y_predict, label=label)
 65 # 计算平均损失
 66 avg_loss = fluid.layers.mean(loss)
 67 
 68 # 计算准确率
 69 acc = fluid.layers.accuracy(input=y_predict, label=label)
 70 
 71 # 7、指定优化---sgd随机梯度下降优化算法
 72 sgd_optimizer = fluid.optimizer.SGD(learning_rate=0.1)
 73 # 指定去优化损失
 74 sgd_optimizer.minimize(avg_loss)
 75 
 76 # 8、指定网络与数据层的关系
 77 feeder = fluid.DataFeeder(feed_list=[image, label], place=place)
 78 
 79 # 9、构建执行器
 80 # 训练执行器
 81 exe_train = fluid.Executor(place=place)
 82 # 测试执行器
 83 exe_test = fluid.Executor(place=place)
 84 
 85 # 10、初始化网络参数
 86 # 初始化参数进程
 87 startup_program = fluid.default_startup_program()
 88 exe_train.run(startup_program)
 89 # 主进程
 90 # 训练主进程
 91 train_main_program = fluid.default_main_program()
 92 # 测试主进程
 93 test_main_program = train_main_program.clone(for_test=True)
 94 
 95 # 11、获取图片数据
 96 # 并不是直接拿到数据就往网络里面送
 97 # 构建一个缓冲区,--打乱顺序,--再往网络里面送
 98 # paddle.dataset.mnist.train() ----paddlepaddle的训练reader
 99 # 缓冲区大小buf_size与批次大小batch_size 并没有多大的关系
100 # 一般设计的时候注意:buf_size 略微需要比batch_size 大一点就可以
101 # 而且batch_size 不能过大
102 # 训练reader 与测试reader 的batch_size数量必须一致
103 train_reader = paddle.batch(
104     paddle.reader.shuffle(paddle.dataset.mnist.train(), buf_size=50),
105     batch_size=10
106 )
107 test_reader = paddle.batch(
108     paddle.reader.shuffle(paddle.dataset.mnist.test(), buf_size=50),
109     batch_size=10
110 )
111 
112 # 12、训练
113 # 指定训练轮数
114 loop_num = 2
115 # 定义的执行次数
116 step = 0
117 
118 flag = False
119 
120 for loop in range(loop_num):
121     print("第%d轮训练" % loop)
122     # train_data 每批次的数据
123     for train_data in train_reader():
124         # 执行器运行训练主进程
125         train_avg_loss_value, train_acc_value = exe_train.run(
126             program=train_main_program,  # 训练主进程
127             feed=feeder.feed(train_data),  # 利用数据层与网络构建好的关系,将真实的数据喂给网络
128             fetch_list=[avg_loss, acc]  # 执行之后需要返回的结果的值
129         )
130         # 每隔10步来打印一下损失与准确率
131         if step % 10 == 0 and step != 0:
132             print("第%d次训练的损失为%f,准确率为%f" % (step, train_avg_loss_value, train_acc_value))
133 
134         step += 1
135 
136         # 每隔100步 去测试集中测试一下训练效果
137         if step % 100 == 0 and step != 0:
138             test_avg_loss, test_acc = test_program(exe_test,
139                                                    feeder,
140                                                    test_main_program,
141                                                    fetch_list=[avg_loss, acc],
142                                                    reader=test_reader
143                                                    )
144             print("*" * 100)
145             print("测试集的损失为:%f,准确率为:%f" % (test_avg_loss, test_acc))
146             print("*" * 100)
147             if test_avg_loss <= 0.1 and test_acc >= 0.98:
148                 flag = True
149                 print("最终测试集的损失为:%f,准确率为:%f" % (test_avg_loss, test_acc))
150 
151                 end = time.time()
152                 print("运行总时长为:", end - start)
153                 break
154     if flag:
155         break

猜你喜欢

转载自www.cnblogs.com/Tree0108/p/12116318.html