I.前文
書かれた「単一ニューロン、神経回路網の浅い、深いニューラルネットワーク」(興味が通過探しすることができます)をBefore've、乱雑なビットを書きますが、多くの地域ではそれを言う必要はありません。ここでは、「認知機」記述することで、質問に答えるために試してみてください「このような、なぜ長い伝播機能を」
パーセプトロンは、ニューラルネットワークの予測モデルに類似しており、今で強力な神経回路網のすべての種類は、パーセプトロンニューラルネットワークがアップ難しいことではありません読んで、上のマシンの誕生の知覚の基礎となっています。また、パーセプトロンニューラルネットワークの両方にも、あるいは早期に、それらは「二級」の問題自体に対処するために使用されている、我々は第二の分類から開始し、逆はパーセプトロンモデル導出されます。マシンがニューラルネットワークに変換され、そしてより多くの詳細は、将来的にそれを再検討するために、「ゼロベースの愛の学習、」一緒に学習人工知能への歓迎の注意ままになります。どのように認識について
第二に、二値
「バイナリ」の名前だけで、あなたはブラックボックスにバイナリ分類モデルを扱う想像することができ、どんな入力の内容、出力は1または0(yesまたはno)ではありません。次のように一般的なバイナリ分類
1)図は、猫が含まれているかどうか
2)車は、図に含まれているか否か。
3)肖像は、図に含まれているかどうか。
猫は彼らも猫をいませんでした、黒、白、黄色、図可能性があるためとして、「猫が何色の姿、」この問題は、バイナリに属していません。
ここでは、非常に単純なバイナリ分類を検討してください。
「白だけで4つの画素の画像は白ではありません。」
以下は、ランダム4画素の画像(N倍に拡大ピクセル便利観察)を生成します
階調値に対応する(階調値範囲0-255,0 255は白フル表し、黒表します):
X =(240,200,100,10)
画像は、グレー値がある閾値よりも大きい場合に「白ない白」直観的うまく処理、我々は白未満のビューであることを考えると、各画素の値が合計である階調であることがあるかどうかを決定しますこれは空白のマップではないという。例えば擬似コードを次のように
もし(X1 + X2 + X3 + X4)>:
1を返します
他:
0を返します
しかし、このアプローチには問題があり、それが全体的な意味での各画素の異なる症状は、以下の二つのグラフのように、一定の影響力を持って考慮されていません。
実際には、2つのプランのグレー値と同じですが、主観的に我々は、全体的な「白」の事を示す右図のより左側に思うかもしれません。その後、我々が考慮され、それを画素ごとの特性を判断するための別の方法を置きます:
X1> A1とx2> A2およびX3> A3とX4> A4の場合:
1を返します
他:
0を返します
ここでA1、A2、A3、各ピクセルA4「署名」値と呼ばれることができますが、この方法は、普遍的な判断につながっているが、それは特性値のセットを追加する必要があるかもしれません、そのような各ピクセルの場所の私達の変化として、貧しい人々です。
もし(X1> A1とx2> A2およびX3> A3とX4> A4)または(> B4 B2とX3> B3とのx4> X1> B1とx2):
1を返します
他:
0を返します
上記、特徴値の2組のみが、実際には、4つの画素の特徴量の組み合わせの6セットまでかかることがあります。あなたは500×500絵に対処する必要がある場合は、コードの複雑さは想像してみろません。
前の例では、我々はそれを行うための方法はありません、非常に単純なバイナリ分類を処理するためにコンピュータを使用することは非常に困難であることがわかりますか?もちろんそうではない、どちらか「白または白ではないが、」裁判官は、本質的には、「OKシステム」を確立することですし、閾値を使用しての前面または特性に、そして現実の世界は、多くの場合、それほど明確ではありませんガチョウ「白と非白。」裁判官は、それはさまざまな要因が適用され、実際には「カオスシステム」です。だから、個人やそれの全体を結合する方法はありますか?ワイズ賢人は、わずかな調整のカップルを持っていました:
x1w1 + x2w2 + x3w3 + x4w4> Aの場合:
1を返します
他:
0を返します
閾値は依然として本明細書で言及され、W1、W2、W3、W4は、フォームの別の特徴では、重みと呼びます。次いで第2の分類決意で異なるべきアカウントに「件名」をとる重み入力累積様式、すなわち乗じ、及びアカウントに決意の「全体」決定的な役割を取ります。しかし、最終閾値は、適切な数に設定する必要がありますどのくらいの重量特定の会計処理しなければならない第二の分類で決定された個々の(体重の量)に、直接、決定的な答えを与え、その後パーセプトロンとの関係でプレーすることは困難です。
第三に、パーセプトロン
以下、簡単なパーセプトロンモデル:
数式:
x1w1 + x2w2 <=次いで、Y = 0(なし)
x1w1 + x2w2>次に、Y = 1(YES)
X1、X2、W1、入力に対応する重みがW2入力されている、Aは、Yが出力され、閾値です。
使いやすさのために、我々は、代わりに、B = -aとを有する左式に移動することができ、方程式は次のようになります。
x1w1 + x2w2 + B <= 0次いで、Y = 0(なし)
x1w1 + x2w2 + B> 0、次いで、Y = 1(YES)
その後、我々は2クラス問題の前に前方に置く「白は白ではないだけで4画素の画像であり、」数式に適用するには:
x1w1 + x2w2 + x3w3 + x4w4 + B <= 0次いで、Y = 0(なし)
x1w1 + x2w2 + x3w3 + x4w4 + B> 0、次いで、Y = 1(YES)
今、私たちが正常にバイナリ分類問題の数学の問題に変換し、質問に答える二分答えは、Bのプロセスは、我々は訓練を呼び出すwを見て、適切なワットaとbを見つけることです。私たちがしか「間に合わせる」W aとbの値は、つまり、最終的パーセプトロンモデルが完璧にフィットしないすべてのトレーニングデータを見つけることに留意すべきです。
今度は、伝播ニューラルネットワーク機能を見てみましょう:
理解することはそれほど難しいことではないのですか?
ここでは、マシンの完全な知覚を達成することができない、コードは1つのニューロンに実際に似ている、プロセス全体が前方に最終的なW、Bの値を与えるために伝搬損失計算、逆最適化、です。
IVの概要
本論文では、伝播機能を理解するための2クラス問題の観点から試みたが、その本当の意味が明確で数学ではないが、後でそれについて話しておきます。
「ゼロベースの愛の学習」AIが一緒に学んで公衆番号に注意してください。