サイト確認コード自動識別

0x001深い学習の基礎

これがあるからだけで何か簡単な導入の検証コードは学習の深さに言っても過言ではありませんすることができません。ただ、簡単な概要の深さの調査が行われる必要があります。4つのステップの一般的には、深さの調査

  • 生産サンプリング、サンプル文書
  • サンプルに基づいてファイルタイプの認識モデルを作成します。
  • サンプル文書は、鉄道模型を識別するためのトレーニングとテストサンプルに分割されます
  • 識別および検証モデルを保存します
  • 上記の次の4つのモデルコードのコースによると、自分の使用を書き込もうとします。
  • この記事のコードのほとんどはから来  テンセント開発ラボ

0x002サンプリング、生産サンプル文書

ソースの2つのサンプルファイルがあります。

  • 生産コード検証コードは、オープンソースソフトウェアの数が多いと、あなたがあなた自身を生成することができ、があります
  • 独自のコードを演奏マニュアルコレクション、(約200〜300の写真の少なくとも最小)

迅速に結果を確認するために、コードImageCaptchaパターン認識を生成するために直接使用されます。
ライブラリには、キャプチャをインストールする必要があります
sudo pip install captcha

#!/usr/bin/python
        # -*- coding: utf-8 -*

        from captcha.image import ImageCaptcha
        from PIL import Image
        import numpy as np
        import random
        import string

        class generateCaptcha():
            def __init__(self,
                         width = 160,#验证码图片的宽
                         height = 60,#验证码图片的高
                         char_num = 4,#验证码字符个数
                         characters = string.digits + string.ascii_uppercase + string.ascii_lowercase):#验证码组成,数字+大写字母+小写字母
                self.width = width
                self.height = height
                self.char_num = char_num
                self.characters = characters
                self.classes = len(characters)

            def gen_captcha(self,batch_size = 50):
                X = np.zeros([batch_size,self.height,self.width,1])
                img = np.zeros((self.height,self.width),dtype=np.uint8)
                Y = np.zeros([batch_size,self.char_num,self.classes])
                image = ImageCaptcha(width = self.width,height = self.height)

                while True:
                    for i in range(batch_size):
                        captcha_str = ''.join(random.sample(self.characters,self.char_num))
                        img = image.generate_image(captcha_str).convert('L')
                        img = np.array(img.getdata())
                        X[i] = np.reshape(img,[self.height,self.width,1])/255.0
                        for j,ch in enumerate(captcha_str):
                            Y[i,j,self.characters.find(ch)] = 1
                    Y = np.reshape(Y,(batch_size,self.char_num*self.classes))
                    yield X,Y

            def decode_captcha(self,y):
                y = np.reshape(y,(len(y),self.char_num,self.classes))
                return ''.join(self.characters[x] for x in np.argmax(y,axis = 2)[0,:])

            def get_parameter(self):
                return self.width,self.height,self.char_num,self.characters,self.classes

            def gen_test_captcha(self):
                image = ImageCaptcha(width = self.width,height = self.height)
                captcha_str = ''.join(random.sample(self.characters,self.char_num))
                img = image.generate_image(captcha_str)
                img.save(captcha_str + '.jpg')
if __name__ == '__main__':
    g = generateCaptcha()
    g.gen_test_captcha()

保存し  generate_captcha.py
たディレクトリに実行するフィード  python generate_captcha.py
あなたが表示されますが、このディレクトリ内の画像ファイルを生成します。

サンプル作業が完了したので、

0x003認識モデルを作成します

コンボリューションモデルは、ニューラルネットワーク(CNN)を使用しています。(CNNは、深さ試験の具体的な例であり、それはコンピュータビジョンに非常に重要な影響を有する。)本明細書で使用する場合、中間層3層、2層に完全に接続された層を、各層がドロップアウトを行われます。

  • ドロップアウトは、過学習を防ぐために使用されます
  • これは単に認識率を訓練するためのオーバーフィッティングモデルが高すぎるが、実際の認識率が低すぎることを意味しています。アナロジーはバック試験問題あなたの前に戻ってあなたの背中、悪い結果の試験の結果に非常に精通していないです

  • 式層が、一般に、我々は側縁試験を調整しているが、最適な効率に達しています

モデルコード:

#!/usr/bin/python
# -*- coding: utf-8 -*

import tensorflow as tf
import math

class captchaModel():
    def __init__(self,
                 width = 160,
                 height = 60,
                 char_num = 4,
                 classes = 62):
        self.width = width
        self.height = height
        self.char_num = char_num
        self.classes = classes

    def conv2d(self,x, W):
        return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')

    def max_pool_2x2(self,x):
        return tf.nn.max_pool(x, ksize=[1, 2, 2, 1],
                              strides=[1, 2, 2, 1], padding='SAME')

    def weight_variable(self,shape):
        initial = tf.truncated_normal(shape, stddev=0.1)
        return tf.Variable(initial)

    def bias_variable(self,shape):
        initial = tf.constant(0.1, shape=shape)
        return tf.Variable(initial)

    def create_model(self,x_images,keep_prob):
        #first layer
        w_conv1 = self.weight_variable([5, 5, 1, 32])
        b_conv1 = self.bias_variable([32])
        h_conv1 = tf.nn.relu(tf.nn.bias_add(self.conv2d(x_images, w_conv1), b_conv1))
        h_pool1 = self.max_pool_2x2(h_conv1)
        h_dropout1 = tf.nn.dropout(h_pool1,keep_prob)
        conv_width = math.ceil(self.width/2)
        conv_height = math.ceil(self.height/2)

        #second layer
        w_conv2 = self.weight_variable([5, 5, 32, 64])
        b_conv2 = self.bias_variable([64])
        h_conv2 = tf.nn.relu(tf.nn.bias_add(self.conv2d(h_dropout1, w_conv2), b_conv2))
        h_pool2 = self.max_pool_2x2(h_conv2)
        h_dropout2 = tf.nn.dropout(h_pool2,keep_prob)
        conv_width = math.ceil(conv_width/2)
        conv_height = math.ceil(conv_height/2)

        #third layer
        w_conv3 = self.weight_variable([5, 5, 64, 64])
        b_conv3 = self.bias_variable([64])
        h_conv3 = tf.nn.relu(tf.nn.bias_add(self.conv2d(h_dropout2, w_conv3), b_conv3))
        h_pool3 = self.max_pool_2x2(h_conv3)
        h_dropout3 = tf.nn.dropout(h_pool3,keep_prob)
        conv_width = math.ceil(conv_width/2)
        conv_height = math.ceil(conv_height/2)

        #first fully layer
        conv_width = int(conv_width)
        conv_height = int(conv_height)
        w_fc1 = self.weight_variable([64*conv_width*conv_height,1024])
        b_fc1 = self.bias_variable([1024])
        h_dropout3_flat = tf.reshape(h_dropout3,[-1,64*conv_width*conv_height])
        h_fc1 = tf.nn.relu(tf.nn.bias_add(tf.matmul(h_dropout3_flat, w_fc1), b_fc1))
        h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)

        #second fully layer
        w_fc2 = self.weight_variable([1024,self.char_num*self.classes])
        b_fc2 = self.bias_variable([self.char_num*self.classes])
        y_conv = tf.add(tf.matmul(h_fc1_drop, w_fc2), b_fc2)

        return y_conv

新規保管captcha_model.py

0x004認識モデルのトレーニング

サンプルやモデルで、私たちは訓練モデルを開始した後、

#!/usr/bin/python
import tensorflow as tf
import numpy as np
import string
import generate_captcha
import captcha_model

if __name__ == '__main__':
    captcha = generate_captcha.generateCaptcha()
    width,height,char_num,characters,classes = captcha.get_parameter()

    x = tf.placeholder(tf.float32, [None, height,width,1])
    y_ = tf.placeholder(tf.float32, [None, char_num*classes])
    keep_prob = tf.placeholder(tf.float32)

    model = captcha_model.captchaModel(width,height,char_num,classes)
    y_conv = model.create_model(x,keep_prob)
    cross_entropy = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(labels=y_,logits=y_conv))
    train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)

    predict = tf.reshape(y_conv, [-1,char_num, classes])
    real = tf.reshape(y_,[-1,char_num, classes])
    correct_prediction = tf.equal(tf.argmax(predict,2), tf.argmax(real,2))
    correct_prediction = tf.cast(correct_prediction, tf.float32)
    accuracy = tf.reduce_mean(correct_prediction)

    saver = tf.train.Saver()
    with tf.Session() as sess:
        sess.run(tf.global_variables_initializer())
        step = 0
        while True:
            batch_x,batch_y = next(captcha.gen_captcha(64))
            _,loss = sess.run([train_step,cross_entropy],feed_dict={x: batch_x, y_: batch_y, keep_prob: 0.75})
            print ('step:%d,loss:%f' % (step,loss))
            if step % 100 == 0:
                batch_x_test,batch_y_test = next(captcha.gen_captcha(100))
                acc = sess.run(accuracy, feed_dict={x: batch_x_test, y_: batch_y_test, keep_prob: 1.})
                print ('###############################################step:%d,accuracy:%f' % (step,acc))
                if acc > 0.99:
                    saver.save(sess,"capcha_model.ckpt")
                    break
            step += 1

以下のために保存  train_captcha.py
の実装 python train_captcha.py

  • 99%以上の正解率のみ保存され、この時点で必要な精度に代わっACC 39行番号
    あなたは0.01最初の実験に効果を設定することができます実行すると
    あなたは、これらのファイルを保存するディレクトリを参照してくださいよなどの訓練、完了後に

0x004検証

検証は限り負荷だけで保存されたモデルとしては比較的簡単である
認識が可能なパターンを生成し、その後と。

!/usr/bin/python

from PIL import Image, ImageFilter
import tensorflow as tf
import numpy as np
import string
import sys
import generate_captcha
import captcha_model

if __name__ == '__main__':
    captcha = generate_captcha.generateCaptcha()
    width,height,char_num,characters,classes = captcha.get_parameter()

    gray_image = Image.open(sys.argv[1]).convert('L')
    img = np.array(gray_image.getdata())
    test_x = np.reshape(img,[height,width,1])/255.0
    x = tf.placeholder(tf.float32, [None, height,width,1])
    keep_prob = tf.placeholder(tf.float32)

    model = captcha_model.captchaModel(width,height,char_num,classes)
    y_conv = model.create_model(x,keep_prob)
    predict = tf.argmax(tf.reshape(y_conv, [-1,char_num, classes]),2)
    init_op = tf.global_variables_initializer()
    saver = tf.train.Saver()
    gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.95)
    with tf.Session(config=tf.ConfigProto(log_device_placement=False,gpu_options=gpu_options)) as sess:
        sess.run(init_op)
        saver.restore(sess, "capcha_model.ckpt")
        pre_list =  sess.run(predict,feed_dict={x: [test_x], keep_prob: 1})
        for i in pre_list:
            s = ''
            for j in i:
                s += characters[j]
            print s

以下のために保存し  predict_captcha.py
、実行  python predict_captcha.py Mlzv.jpg
します

おすすめ

転載: www.cnblogs.com/czlong/p/11705155.html