[深層学習] 畳み込みニューラル ネットワークに基づくキャプチャ認識

イベントアドレス: CSDN 21 日間ラーニング チャレンジ

序文

環境はここでは繰り返されません.畳み込みニューラル ネットワークに基づく[Deep Learning] Weather Recognition Training Text の環境と一致しています. それでも構成がうまくいかない場合は、この記事の最後にある詳細なパッケージ構成を参照してください.

キャプチャ データセットを理解する

これには、1070 枚の手書きの確認コード画像が含まれています。通常の認証コードを写真の名前として使用します。したがって、後の段階で、テスト セットと検証セットを手動で分割する必要があり、すべてのイメージ名で検証コードを手動で抽出する必要があります。
ここに画像の説明を挿入

weather_photos データセットをダウンロードする

プライベート メッセージを送信できます (データセットは既に csdn にアップロードされているため、再度アップロードすることはできません)。

CPU トレーニングまたは GPU トレーニングを使用するかどうか

一般的に言えば、優れたグラフィックス カード (GPU) を使用している場合は、高速な GPU をトレーニングに使用するため、それに応じて tensorflow-gpu パッケージをダウンロードする必要があります。グラフィック カードの性能が低い場合、または優れたグラフィック カードを使用するための十分な資金がない場合は、CUP トレーニングを使用できます。

違い

(1) CPU は主にシリアル操作に使用され、GPU は超並列操作に使用されます。ディープ ラーニングでは膨大な量のサンプルと大量のパラメーターが使用されるため、GPU の役割はネットワーク操作を高速化することです。

(2) CPU によるニューラル ネットワークの計算も可能であり、計算されたニューラル ネットワークも実用上非常に有効ですが、速度は非常に遅くなります。現在、GPU 演算は主に行列の乗算と畳み込みに焦点を当てており、その他の論理演算は CPU ほど高速ではありません。

CPU を使用したトレーニング

# 使用cpu训练
import os

os.environ["CUDA_VISIBLE_DEVICES"] = "-1"

CPU でトレーニングする場合、CPU モデルは表示されません。
ここに画像の説明を挿入

GPU を使用したトレーニング

gpus = tf.config.list_physical_devices("GPU")

if gpus:
    gpu0 = gpus[0]  # 如果有多个GPU,仅使用第0个GPU
    tf.config.experimental.set_memory_growth(gpu0, True)  # 设置GPU显存用量按需使用
    tf.config.set_visible_devices([gpu0], "GPU")

GPU トレーニングを使用すると、対応する GPU モデルが表示されます。
ここに画像の説明を挿入

中国語をサポート

import matplotlib.pyplot as pltインポート ライブラリを使用します。plt は draw を表すライブラリです。ライブラリの構成は固定されていますが、描画のニーズを満たすために plt の構成パラメーターを変更したい場合があります。rcParams (実行構成パラメーター) 実行構成パラメーターを変更できます
plt.rcParams['配置参数']=[修改值]

plt.rcParams['font.sans-serif'] = ['SimHei'] #运行配置参数中的字体(font)为黑体(SimHei)
plt.rcParams['axes.unicode_minus'] = False #运行配置参数总的轴(axes)正常显示正负号(minus)

データのインポート

ここでは、トレーニング結果が可能な限り安定するように、numpy のランダム シードと tf のランダム シードが固定値に設定されていることがわかります。ここでは、データセットがローカルに保存されているパスが data_dir 変数に与えられます。

import matplotlib.pyplot as plt
import PIL

# 设置随机种子尽可能使结果可以重现
import numpy as np

np.random.seed(1)

# 设置随机种子尽可能使结果可以重现
tf.random.set_seed(1)

from tensorflow import keras
from tensorflow.keras import layers, models

import pathlib

data_dir = "E:\\PythonProject\\day6\\data\\captcha\\"
data_dir = pathlib.Path(data_dir)

# 提取所有照片的路径
all_image_paths = list(data_dir.glob('*'))
all_image_paths = [str(path) for path in all_image_paths]

# 打乱数据  因为文件默认按照文件名的字母排序,所以需要打乱顺序
random.shuffle(all_image_paths)

# 获取数据标签  通过拆分图片名称的后缀见所有的验证码字符串提取出来
# 验证码长度是5位,且都已.png结尾 然后进行拆分
all_label_names = [path.split("\\")[5].split(".")[0] for path in all_image_paths]

データ量を見る

image_count = len(all_image_paths)
print("图片总数为:", image_count)

いくつかの写真を表示

最初の 20 枚、各行に 5 枚、合計 4 枚の線を描きます。

from matplotlib import pyplot as plt

plt.figure(figsize=(10, 5))

for i in range(20):
    plt.subplot(4, 5, i + 1)
    plt.xticks([])
    plt.yticks([])
    plt.grid(False)

    # 显示图片
    images = plt.imread(all_image_paths[i])
    plt.imshow(images)
    # 显示标签
    plt.xlabel(all_label_names[i])

plt.show()

結果をプロットします。
ここに画像の説明を挿入

前処理

ラベルを手動で設定する

検証コードに表示されるすべての数字と文字を格納する配列を設計します。

number = ['0', '1', '2', '3', '4', '5', '6', '7', '8', '9']
alphabet = ['a', 'b', 'c', 'd', 'e', 'f', 'g', 'h', 'i', 'j', 'k', 'l', 'm', 'n', 'o', 'p', 'q', 'r', 's', 't', 'u',
            'v', 'w', 'x', 'y', 'z']
char_set = number + alphabet
char_set_len = len(char_set)
label_name_len = len(all_label_names[0])

def text2vec(text):
    vector = np.zeros([label_name_len, char_set_len])
    for i, c in enumerate(text):
        idx = char_set.index(c)
        vector[i][idx] = 1.0
    return vector


all_labels = [text2vec(i) for i in all_label_names]

コードを直接見ると少し混乱するかもしれません. 次の図は最終的な効果です.これは 3 次元配列と同等です. 1 番目の次元は各画像を表し、2 番目の次元は複数の文字セットを表し、3 番目の次元は複数の文字セットを表します.各人の認証コードがどうあるべきかを表します. 文字, ある場合は対応する位置に0, ない場合は0.
ここに画像の説明を挿入

グレースケール処理

グレースケール、RGB モデルでは、R=G=B の場合、色はグレースケール カラーを表し、R=G=B の値はグレースケール値と呼ばれます. したがって、グレースケール イメージの各ピクセルは 1 バイト ストア グレースケールのみを必要とします値 (強度値、輝度値とも呼ばれます)、グレースケール範囲は 0 ~ 255 です。式は次のとおりです。
ここに画像の説明を挿入

平均法

グレースケール画像は、カラー画像の 3 成分の輝度を平均することによって得られます。この記事では、平均法で処理された写真を使用しています。
ここに画像の説明を挿入
下図は平均化法によるグレースケールです。左が元の画像、右がグレースケール画像です。
ここに画像の説明を挿入

加重平均法

この方法は、過去の一定期間の観測値に基づいて、将来この値のありそうな方向を推定する方法です。
ここに画像の説明を挿入
下図は平均化法によるグレースケールです。左が元の画像、右がグレースケール画像です。
ここに画像の説明を挿入

cvtColor

OpenCV の API cvtColor 関数でもグレースケール処理を実現できます。下図は平均化法によるグレースケールです。左が元の画像、右がグレースケール画像です。
ここに画像の説明を挿入

データダウンロード

ここでは from_tensor_slices メソッドが使用されます。この関数はデータセットのコア機能の 1 つで、タプル、リスト、テンソルなどの与えられたデータをスライスする機能です。スライスの範囲は、最も外側の次元から始まります。結合する特徴が複数ある場合、各結合の最も外側の次元のデータを切り取り、グループに分割することをスライスと呼びます。

AUTOTUNE = tf.data.experimental.AUTOTUNE

path_ds  = tf.data.Dataset.from_tensor_slices(all_image_paths)
image_ds = path_ds.map(load_and_preprocess_image, num_parallel_calls=AUTOTUNE)
label_ds = tf.data.Dataset.from_tensor_slices(all_labels)

image_label_ds = tf.data.Dataset.zip((image_ds, label_ds))

# 拆分数据集 将前1000个作为训练集 剩余的作为测试集
train_ds = image_label_ds.take(1000) 
val_ds   = image_label_ds.skip(1000)  

データセットを構成する (高速化)

shuffle(): この関数は、リストのすべての要素をランダムに並べ替えます。時々、私たちのタスクは特定の数のデータセットをランダムにサンプリングします. たとえば、テキストに 10 行あり、最初の 5 行をランダムに選択する必要があります.
prefetch(): プリフェッチはプリフェッチ メモリの内容です。プログラマは CPU にすぐに使用できる内容を伝え、CPU は最適化のためにプリフェッチします。

BATCH_SIZE = 16
train_ds = train_ds.batch(BATCH_SIZE)
train_ds = train_ds.prefetch(buffer_size=AUTOTUNE)

val_ds = val_ds.batch(BATCH_SIZE)
val_ds = val_ds.prefetch(buffer_size=AUTOTUNE)

CNN モデルを構築する

こちらのモデルは前作とほぼ同じなのであまり紹介しません。

from tensorflow.keras import datasets, layers, models

model = models.Sequential([
    
    layers.Conv2D(32, (3, 3), activation='relu', input_shape=(50, 200, 1)),
    layers.MaxPooling2D((2, 2)),                   
    layers.Conv2D(64, (3, 3), activation='relu'),  
    layers.MaxPooling2D((2, 2)),                   
    
    layers.Flatten(),                              
    layers.Dense(1000, activation='relu'),         
    
    layers.Dense(label_name_len * char_set_len),
    layers.Reshape([label_name_len, char_set_len]),
    layers.Softmax()                               
])

model.summary()  # 打印网络结构

ネットワーク構造

入力レイヤーを含めて合計10レイヤー
ここに画像の説明を挿入

パラメータ量

パラメーターの総数は 33M で、パラメーターの量はさらに多くなりますが、データ セットはそれほど大きくありません。GPU トレーニングをお勧めします。

Total params: 33,991,996
Trainable params: 33,991,996
Non-trainable params: 0

モデルをトレーニングする

モデルを 10 エポック訓練します。

# 设置优化器
model.compile(optimizer="adam",
              loss='categorical_crossentropy',
              metrics=['accuracy'])

epochs = 10

history = model.fit(
    train_ds,
    validation_data=val_ds,
    epochs=epochs
)

トレーニング結果: 10 ラウンド後、テスト セットの正解率はわずか 78.57% であり、最適化の余地がまだたくさんあることを示しています。
ここに画像の説明を挿入

モデル評価

トレーニング済みモデルのデータは曲線テーブルに作成されます。これは、オーバーフィッティングかアンダーフィッティングか、データを拡張する必要があるかどうかなど、後でモデルを最適化するのに便利です。

acc = history.history['accuracy']
val_acc = history.history['val_accuracy']

loss = history.history['loss']
val_loss = history.history['val_loss']

epochs_range = range(epochs)

plt.figure(figsize=(12, 4))
plt.subplot(1, 2, 1)

plt.plot(epochs_range, acc, label='Training Accuracy')
plt.plot(epochs_range, val_acc, label='Validation Accuracy')
plt.legend(loc='lower right')
plt.title('Training and Validation Accuracy')

plt.subplot(1, 2, 2)
plt.plot(epochs_range, loss, label='Training Loss')
plt.plot(epochs_range, val_loss, label='Validation Loss')
plt.legend(loc='upper right')
plt.title('Training and Validation Loss')
plt.show()

操作結果:
ここに画像の説明を挿入

予測する

ここでは、トレーニング済みのモデルに対して前処理効果を実行します. 次の 6 つの写真は、テストの例として使用されます.

def vec2text(vec):
    text = []
    for i, c in enumerate(vec):
        text.append(char_set[c])
    return "".join(text)


plt.figure(figsize=(8, 8))

for images, labels in val_ds.take(1):
    for i in range(6):
        ax = plt.subplot(5, 2, i + 1)

        # 显示图片
        image = tf.reshape(images, [16, 50, 200])
        plt.imshow(image[i])

        # 需要给图片增加一个维度
        img_array = tf.expand_dims(images[i], 0)

        # 使用模型预测验证码
        predictions = model.predict(img_array)
        plt.title(vec2text(np.argmax(predictions, axis=2)[0]))

        plt.axis("off")

plt.show()

エラー率は依然として非常に高く、モデルをさらに改善する必要があることがわかります。
ここに画像の説明を挿入

おすすめ

転載: blog.csdn.net/qq_45254369/article/details/126329361