ノート - 深い学習コンテキスト仕上げ:1人のインフラストラクチャユニット。

インフォメーション:

深さの研究の基本的なコース
深い学習講座-第一段階をレクチャー:深い学習の基礎


フロント:

深い学習の基礎のいくつかを理解している
それらの意味についての詳細


図一般化

ここに画像を挿入説明

インフラユニット
  • オペアンプはすべて、それが何を意味するか知っている必要があります
    • 完全に接続された層のオペアンプ
    • OP畳み込み層
    • ...
アクティベーション機能
  • なぜ、ニューラルネットワークの非線形活性化関数の源であります
  • 活性化関数の範囲
  • 活性化関数の微分
損失関数
  • ネットワークを調整します。
    • ネットワーク構造を調整します
    • 調整後損失関数
      • 例えば:重み関数への損失
  • 損失関数の物理的意味
  • 損失関数の微分
ネットワークトレーニング
  • 伝播アルゴリズムをバックエラー
  • 最適化:
    • 以下のために最適化されました:
      • ネットワークの精度を最適化
      • ネットワークトレーニングの速度を最適化
    • 最適化の意味します:
      • サンプルの重み
      • 重量区分
      • 損失重み関数
      • ...

完全接続層

コンボリューション層

  • スパース接続
  • 共有重み
    • 大幅なパラメータの数を減らします
  • 畳み込み演算
    • 理解の直感的なレベル
    • コンピュータの特定の実装
      • 高速マルチチャンネルコンボリューション(操作に基づくIm2Col)
      • バックプロパゲーションプロセスを記述するために、実際の必要に応じて
      • これは、技術革新の基盤となる基礎を理解することです

デコンボリューション

逆コンボリューション処理、信号復元を達成するために

  • 特定の目的:

    • 完全なコンボリューション・ネットワーク(FCN)
      • オブジェクトセグメンテーションは、各画素を分類する必要があります
      • デコンボリューション層のアップサンプリング(upsamping)が必要です
  • 生成対決ネットワーク(GAN)

    • デコンボリューションは、画像を生成するために使用されます

プーリング層

不変の特性を紹介(批判されて背後にある理由である):特性
の可能な欠点:失われた情報がより正確な記述

  • 特徴表現の堅牢性を向上させるために、

    • 堅牢な特徴表現とは何ですか
  • プールの方法

    • マックスプーリング
    • プーリングの意味
    • ランダムプール(すなわち、加重平均が所望呼ばれて使用されます)

アクティベーション機能

ここに画像を挿入説明

sigmod导数的范围:(0, 1/4]
tanh导数范围:(01]
--> 使用tanh 梯度下降收敛速度比sigmod快
  • 現在、最通用またはrelu
    • reluは、より良いデータ性能の一貫性を持っています
    • 異なるネットワーク構造、異なるデータセット内の他の活性化機能は、パフォーマンスの結果は非常に異なる場合があります...
      ここに画像を挿入説明
    • reluの使用は、事前研修はその意味を失っ作ると言われています
      ここに画像を挿入説明
    • 原則論文は、まだ非常に貴重な議論であります

脱落

ここに画像を挿入説明

  • BN紙に述べたが、BN場合、あなたはそれ以外の場合は、収束の速さを削減する、ドロップアウトを使用する必要はありません

思考は:ドロップアウトは、常にいくつかの接続が失われることはありません

不是丢掉,而是让某些神经元输出变成0,但是神经元之间的连接还是保留的,即权重还是保留的
在反向传播的过程中,不调整那些被选中的w

質問:なぜ、ドロップアウト効果

  • この式のさらなる理解のための必要性
    ここに画像を挿入説明

BN(バッチ正規化)

ここに画像を挿入説明

  • 各バッチの正規化されたデータに標準的な操作
    • 少ない平均
    • 分散に加え、

質問:モデルを使用する場合、どのようにデータの予測サンプルに対処します

在训练的时候,会计算出平均的均值与方差 ~

実験は、BNは非常によく(損失がそれの収束を加速する必要があります)ネットワークのコンバージェンス深さを加速する可能性があることを示して

バッチ繰り込み

ここに画像を挿入説明

随着深度网络的加深
每一batch的样本数越来越少
最后 moving average 计算出来的均值和方差就越来越不准了

平均的な思考を動かします

おすすめ

転載: blog.csdn.net/chen_holy/article/details/91489359