深い学習の簡単な紹介

 

 深い学習のための3つのステップ

 

 

 

  • ステップ1:ニューラルネットワーク(ニューラルネットワーク)
  • ステップ2:モデル評価(機能の良さ)
  • ステップ3:最高の機能を選択します(最高の機能を選択してください)

  神経網

 

 

手動で接続ニューロン

 

 例えば:* 1 +( - 1)*( - 2)+ = 4 1 /(1 + E ^( - 4))1 = 0.98

 

 

 

異なるパラメータは、関数であります

 

 

 

 

異なるモデルの層数

 

 

 

 行列演算は、ネットワーク構造によって表されます

 

 

 

 

 

Xは、複雑な演算を介して入力xの最後のセットで抽出された特徴を

エッセンス:変換機能によって隠された層

 

 

 

 

手書き数字認識の例

 

 

 

あなたは質問をすることもできます

 

 

 

その後、いくつかの質問があります。
どのように多くの層?どのように多くのニューロン各フロアの?
私たちは、直感的な方法でデバッグを追加しようとする必要があります。いくつかの機械学習関連の問題については、我々は一般的に使用フィーチャー・プロジェクトを抽出機能にはなく、学習の深さのために、
我々はそれにニューラルネットワークモデルを設計する必要があります。音声認識や画像認識のために、深い学習が、良い方法では容易ではありません特徴抽出機能が動作しますので 構造は、それを自動的に決定することができますか?
そこに自動的に設計されたマシンは、このような人工ニューラルネットワークの進化として、ニューラルネットワーク、(進化人工ニューラルネットワーク)の構造を見つけるようにする多くの方法があるが、これらの方法は非常に人気がありません。 私たちは、ネットワーク構造を設計することができますか?
はい、そのようCNNなどの畳み込みニューラルネットワーク(畳み込みニューラルネットワーク)

 

对于模型的评估,我们一般采用损失函数来反应模型的好差,所以对于神经网络来说,我们采用交叉熵(cross entropy)函数来对yy^​的损失进行计算,

接下来我们就是调整参数,让交叉熵越小越好。

 

 

 对于所有训练数据的loss

 

 

利用梯度下降来最小化total loss

 

 方向传播进行梯度下降

 

 越深越好?

 

 普遍性定理

 

おすすめ

転載: www.cnblogs.com/tingtin/p/12332725.html