個人ブログのナビゲーションページ(クリック、右側にリンク個人のブログを開くために):ダニエルは、テクノロジ・スタックにあなたを取ります
人工ニューラルネットワークの幾何学的原則
(人工ニューラルネットワークの幾何学的原則)
この記事では、人民元普通のニューラルネットワーク(CNNと非RNN)から構成される人工ニューラルネットワークを調べ、これだけは最も簡単ReLU神経古典的なシーンである単一の(隠れた)層の分類を議論しました。
基本合意
議論を容易にし、活性化関数の像をReLU全体で使用されるために、元の2次元ベクトルXが入力されます。
例1
示す単純ニューラルネットワーク、二つのノードを含む入力層、出力層の2つのノード、隠された層と3つのノード下の図。ネットワークは、二次元入力ベクトル、その出力の2つの分類の確率のバイナリ分類問題を解くために使用することができます。
- 入力層 - 2次元ベクトルX
- 隠された層(第1層) - ReLU層(3個のニューロン)
- 出力層(第2層) - ソフトマックス層(2個のニューロン、バイナリ分類)
サンプル分布が仮定され、次の図に示すように、赤、緑、及び2つの分類(色)の1つに属する各サンプル(その縦座標値X1横座標値X0)の2つの機能があります。サンプル本当の境界線が円です。
示した試料のグレー領域内ニューラルネットワーク赤色されていることを、最適な結果を得るために(学習処理が省略された)学習後のネットワーク、灰色、緑の領域の外側の試料、分類識別下ケースに精度は95%でした。(クリックTensorPlaygroundは、学習プロセスを経験します)
- このディストリビューションの次の3 ReLUニューロンは、最適な境界グラフィック六角あります
なぜ、このような単純なニューラルネットワークは、この効果も(六角境界グラフィックス)を達成するためにできますか?ビューの幾何学的な観点からは、次の資料人工ニューラルネットワークは、もはやブラックボックスであるように、その内部の原理を詳しく説明しないために。
シングルニューロンReLU
- W、Xはベクトルです
- 入力ニューロンXのバイアスバイアスパラメータ、ニューロンの重み重みパラメータのための重みW、ニューロンのためのB
ここで、次のように画像であるB = -2.5、[1.5、3.5] = W、Xは、2次元のベクトルであり、Wをさせましょう。
- (注、地図の縮尺とX0のZ軸すなわちX1軸矛盾)
その入力が高次元空間のN + 1下のn次元空間のX(新たに追加された寸法Zを作るために)である超平面を生成し、超平面は、次にZ = 0に沿って折り畳まれるReLU単一ニューロン、超倍の表面と呼ばれます
表面の超オフ角
Wはパラメータによって決定されます
(高次元空間)
- 常に鈍角
スーパー鉄表面折り目が超平面上にZ = 0の位置に折り畳ま
Wは、パラメータおよびパラメータBによって決定されます
(高次元空間)
定数*スーパーしわ
C * Z
図中のZ軸方向及び縮小、反転、折り畳まれた面の角度が変更され、それは、折り線の位置を変更しません
- 1 <C➡️延伸、面角度を折り畳むこと小さい(急峻)になります
- 0 <C <1つの➡️収縮、(平坦)オフ面角度が大きくなります
- C <0➡️顔オフ反転、反転
C = 2
C = 0.6
C = -1
C = -2
C = -0.6
スーパーウルトラ折り畳まれ、表面に折り畳まれた表面+
Z0 + Z1
第二折り畳ま面折り畳ま面による第1の折り線は再び折り畳まれ、そして元の角度が小さい(急峻)は、2つの折り畳まれた表面になるように
それは、折り線で上変化しない超平面ではなく、折り目の折り曲げ部と、Z = 0の元の超平面からZ = 0の面位置スーパー折り畳ま
=
ニューロンの最初の層ReLU
複数の追加リニア超オフ面(一方の視野角の後)
- 第一層ニューロンのReLU動作後のn番目の結果のためのHN
Nニューロン➡️= 0、n個の超平面Z上折り線で発生し、高次元空間に折り畳ま
- スーパー倍第一層の単一ニューロンの位置によって決定されるライン、及び独立パラメータの層
- 各スーパーオフの表面に折り畳み角度を決定するパラメータW層を形成した後
- パラメータBの一つの層がZ軸に沿って外れ複合スーパーの全体表面の位置を決定した後(上下移動)
直分割面
nは平面直線までに分割されている セクション
D n次元空間の超平面を分割
N D次元空間へ超平面までは、部分F(D、N)に分割されています
バイナリ分類の下にソフトマックス
SoftMax(X)は、ベクトルXの確率事象(0-1)の独立各インデックス位置の値に変換
バイナリ分類ソフトマックス用語ため、ネットワークは、実際に線形加算の前の層二組の結果であり、結果の値を予測結果として大きく設定されています
ここでR1と、いくつかの変換を行うには - R0と二つの代替直接サイズ比較のうち0サイズ、線形のセットのソフトマックスシンプル添加の最後の層とサイズを決定する0
- Z <0、予測が0に分類されます
- Z> 0、分類の予測
多変量分類におけるソフトマックス
多変量分類ソフトマックス用語ため、ネットワークが実際に前の層群多重線形加算の結果であり、結果の最大値を予測結果として設定されています
ここでのRaと、いくつかの変換を行うために - 二つの代替直接大小比較から、この添加後、線形のセットソフトマックスを使用して最後の層に相当し、Rbおよび0サイズよりライン0におけるサイズaを決定するために決定され、B分類いますクラスでは、あなたは裁判官に何回、最大尤度分類を見つけることができます
- 依然としてバイナリ分類器、線形結合Z =幾何透視投影超平面を使用することができ0
1 ReLU層+ 1ソフトマックスバイナリ分類ネットワーク層
- n次元空間における入力X
- ZはN + 1次元の空間が超平面= 0およびm超折り曲げ線上に生成され、折り畳みをm(mは第一層ReLUにおけるニューロンの数です)
- グラフィックスは、超平面の大きさを比較するために付加的に(Z軸の全体の各折り目の角度や位置を変える)線形結合折り畳まれ、Z = 0の後
- 投影超平面Z = 0は、元のn次元空間バイナリ分類境界があるパターンでのn + 1次元空間における
限り、複数のニューロンReLU十分な数として、折り畳みは、高次元空間に依存し、そのようなパターンマッチングの高次元空間分布を生成することができ、任意の有限出会う特定の分布法則のために、参照
解析例1
高次元空間の視点
- 高次元空間の下で生産3枚のグラフィックススーパーポリライン
- 7部、ここで生産6部(最小無視できる程度を有する中間部)に平面ジェネレータを分割する3本の直線
- 境界パターンはZ = 0で超平面を投影ちょうど六角形であります
折り線Z = 0のスーパー超平面でReLU第一層
高次元空間におけるZ
付属のJava / C / C ++ /機械学習/アルゴリズムとデータ構造/フロントエンド/アンドロイド/パイソン/プログラマ読み/シングル書籍図書Daquanは:
(乾燥した個人ブログでそこ開くには、右クリックしてください):技術的なドライ開花を
===== >> ①[Javaのダニエルは、高度なへの道であなたを取る] << ====
===== >> ②[+ ACMアルゴリズムデータ構造ダニエルは、高度なへの道であなたを取る] << ===
===== >> ③[データベースダニエルは高度への道であなたを取る] << == ===
===== >> ④[ダニエルWebフロントエンドの高度への道であなたを取るために] << ====
===== >> ⑤[機械学習のPythonとダニエルあなたにエントリを取ります高度なロード] << ====
===== >> ⑥[建築家ダニエルは高度への道であなたを取る] << =====
===== >> ⑦[C ++ダニエルは、道路上をお連れに進ん] << ====
===== >> ⑧[ダニエルは高度への道であなたを取るのiOS] << ====
=====> > ⑨[ウェブセキュリティダニエルは、高度なへの道であなたを取る] ===== <<
===== >> ⑩[Linuxオペレーティングシステムを、ダニエルは高度への道であなたを取る] = << ====何の未収果物はありません、あなたの若い友人は、友人がテクニックを学びたい願って、道路の方法ですべての障害を克服することは、技術に結びつける本を理解して、コードをノック、原理を理解し、実践を行くことになります決定しましたそれはあなたの将来、あなたの夢を生活、あなたの仕事をもたらすでしょう。