全結合層の詳しい説明

コンセプト

完全接続層は通常、ニューラル ネットワーク全体の最後に位置し、畳み込みによって出力された 2 次元の特徴マップ (行列) を 1 次元のベクトルに変換する役割を担い、エンドツーエンドの学習プロセスを実現します。 。(例: 画像または音声を入力し、ベクトルまたは情報を出力します)。全結合層の各ノードは前の層のすべてのノードに接続されているため、全結合層と呼ばれます。

畳み込みはローカルな特徴を取得し、完全な接続は、重み行列を通じて以前のローカルな特徴を完全なグラフに再構築することです。すべてのローカル機能が使用されるため、完全接続と呼ばれます。

完全に接続されたレイヤーの仕組み

以下の図に示すように、28X28 グレースケール画像を入力すると、畳み込み層とプーリング層を通過し、20 個の 12X12 画像を出力し、全結合層を介して 1X100 ベクトルをプログラムします。そこで問題は、どのようにして 1X100 ベクトルになるのかということです。実際、これは、12X12X20 フィルターを使用して活性化関数の出力を畳み込み、中間で畳み込みを実行すると理解できます。その結果は全結合層のニューロンの出力であり、この出力は値です。ニューロンが 100 個あるため、出力は 1X100 ベクトルになります。実際、12X12X20X100 畳み込み層を使用して活性化関数の出力をデコンボリューションし、最終的に 1X100 ベクトルが取得されます。

 全結合層の役割:

全結合は、ネットワーク全体の畳み込みニューラル ネットワークにおける「分類器」の役割を果たします。畳み込み層、プーリング層、活性化関数などの演算によって、元のデータが隠れ層の特徴空間にマッピングされる場合、全結合層は、 「分類器」の役割 学習した特徴表現をサンプルのラベル空間にマッピングする役割に。実際、これは最終的な分類子または回帰を容易にするために機能を統合することです。

おすすめ

転載: blog.csdn.net/m0_74890428/article/details/127731483