ディープ学習 - 知人深い学習 - ノート

 従来の機械学習と深い学習

  学習能力の伝統的な機械学習として学習が、影を学習深い学習機械がまだあるの深さにもかかわらず、深い学習理論は、従来の機械学習と不可分です。このような線形モデル、ニューラルネットワークの学習のすべての深さでの畳み込みカーネル、RELU活性化機能、のSoftMax、など。伝統的な機械学習と深い学習の簡単な比較を以下に示します。

設立の伝統的な機械学習プロセス

データ前処理----------->特徴抽出----------->選択分類器

正規化されました

次元削減

ノイズ除去

人工デザインパターン

画像:SIF、LBP、フィッシャー、ガボール、豚

言語:MFCC、ウェーブレット、Word2vec

SVM、決定木、ランダムフォレスト、ベイジアンネットワーク、線形回帰、クラスタリング

確立の深い学習過程

データ準備----------->デザインモデル----------->トレーニング

データ、ラベル

CNN、CNN + RNN RNN

構造調整の損失機能訓練パラメータ

深学習アプリケーションの特長

利点:

  適応性の広い範囲をカバーし、学習能力、移植(例えば、マイグレーション研究)

短所:

  計算集約、貧しい移植性、高いハードウェア要件、複雑なモデルの設計、おそらく「ハック」することがあります - 他のオブジェクトに特定のパターンを認識することができる、計算よりも長く、計算がより弱いです

比較的深い学習フレームワーク

フレーム

言語

ドキュメンテーション

互換性のあるCNN

互換性のRNN

始めるために難しさ

スピード

パラレルサポート

互換Keras

サポートチーム

Theano

パイソン/ C ++

++

++

++

+

++

+

+

モントリオール大学

テンソルの流れ

パイソン

+++

+++

++

+++

++

++

+

グーグル

トーチ/ Pytorch

Luaの、Pythonの

+

+++

++

++

+++

++

 

フェイスブック

カフェ

C ++

+

++

 

+

+

+

 

嘉ヤン清、バークレー、カリフォルニア州

MXNet

Pythonの、R、ジュリア

++

++

+

++

++

+++

+

李牧、陳Tianqiなど、アマゾン

ネオン

パイソン

+

++

+

+

++

+

 

インテル

CNT

C ++

+

++

+++

+

++

+

 

マイクロソフト

TensorFlow

初心者に適した豊富な文書は、は、Googleのサポート、長期的な効果、自動導出をインストールするだけで急速な発展を促進するために、モデルの設計、Keras支援に注力するのは簡単です。

具体的な用途としては、TensorFlow TensorFlow中国のコミュニティのような中国のサイトの数を見ることができますhttp://www.tensorfly.cn/tfdoc/how_tos/overview.htmlも言語中国のネットワークC、http://c.biancheng.net/ tensorflow /もちろん、あなたは英語で関連文書を学ぶことができます。

深い学習の基礎を学びます

  ニューラルネットワークと呼ばれる人工ニューラルネットワークは、数学的モデルが形成され、生物学的ニューラルネットワークの原理に描画しています。ニューラルネットワークは、多くの機械学習アルゴリズムの一つであり、両方ともなどの分類、視覚的に認識、など教師の作業に使用することができ、それはまた、教師なしタスクを使用することができます。下に示したように、それは複雑な非線形問題を処理することが可能であると同時に、その基本的な構造は、神経細胞である:これは、単純な1ニューロンのみです

 

 ここで、X1、X2、X3は、入力ニューロンの中間部、及び最後HWを表し、B(x)は、出力ニューロンです。全体のプロセスは、入力として理解することができます - >処理 - >出力。

  ニューラルネットワークのニューロンが複数である:それは入力層、隠れ層及び出力層から構成され、図示虹彩データセットがトレーニング後の結果であるように、当然のことながら、これは盗難図他のあるブログの:

コンボリューションカーネルは、画像処理、ニューラルネットワークの基本的な演算子であるコンボリューションコンボリューションカーネルニューラルネットワークに適用され、あなたは下の図の畳み込みからの過程を知ることができます。

 次のステップは、システムのいくつかの深さを学び始めるために学んでいます。

 

 

 

おすすめ

転載: www.cnblogs.com/yang901112/p/11828150.html