AIニューラルネットワークは、物事を特定する方法

AIとニューラルネットワーク

AIは、6〜7年を開発してきた繁栄と衰退の数回経験しています。一方で良い進歩、まだ理想的と人工知能との間に大きなギャップがありました。

AI 3つの学校:学校のシンボル、接続学校、学校の行動。思考のシンボル学校は、任意の物理的な特定のパターンまたは記号であり、オペレーティングシステムモードまたはいくつかの他の記号に変換することができ、インテリジェント挙動を生成することが可能である。思想の学校が接続されている高度なインテリジェント挙動は、ニューラルネットワークにおける多数の接続から自然に発生します多数のニューロンが脳をシミュレートすることで、行動派は、高度なインテリジェント人間にその着目したが、周りと迅速な対応に移動する昆虫の柔軟性の低レベルを懸念しているしていません。前世紀、1990年代の状況の三本柱を形成します。

近年では、多くの分野で過去の実績の深い学習によって接続された学校は大幅に改善しているもう一度立ち上げて人工知能が学校に接続させ、接続は間違いなく最も輝く人工知能ソリューションとなっています。モデル校は、革新のための基礎として、ニューラルネットワークに接続されている、それはまだニューラルネットワーク構造のコア部分です。

分類について

人間の物事の同定は大幅にある物事を分類することです。花のすべての種類などは、以下の図では、我々は桔梗を参照してくださいあなたは曼荼羅にもそれが花だと思う見、それが花であることを知って、私たちはそれらを分類するためにさまざまな花を参照してください。あなたは適切なものが分類される見たときにように同様の人々、樹木、車や、クラスの概念のすべてがあります。

分類は、ニューラルネットワークは、そのような人間を識別し、分類する能力として達成することができ、人工知能の中核です。マシンの場合、すべての情報は、離散的なデジタル信号である目標ニューラルネットワークは、認識結果を達成するために、これらの離散信号を分類すること、を特徴とします。

最も簡単なニューラルネットワーク

パーセプトロンは、最も基本的なニューラルネットワークであり、それは(W1、W2 ... WN)各入力が重みに対応する、入力(X1、X2、...、XN)の複数を有することができ、バイアス項W0に加え。各入力および対応する重みは、次に累積乗算され、その後ステップ関数により、最も単純なニューラルネットワークは、単純なことです。使用が何であるかのような単純なモデル?実際には、線形分類に使用することができます。

今のものの2種類がある場合は、彼は青と黄色で表されます。私たちは、二つの要因は、X1とX2を決定抽出し、今青や黄色に属する点を決定するために、単純なニューラルネットワーク機能を使用する準備が整いました。青色と黄色の間の境界線として、0と1の間の値、0.5に圧縮され、図シグモイド関数、に示すように、第1、シグモイド活性化関数によってZのZ = a_x1 + b_x2 + C、値を算出します。

問題は、適切に、青色と黄色を分離する方法を決定し、B、Cのパラメータ?簡単のような3つの値= 0.20、= -0.3、C = 0.7、B、この場合、以下の効果の分類を推測してみましょう。

幸運される、= -0.7、C = -0.5 B、= -0.20を推測し続け、効果が正しく分類、なかなか良さそうです。確かに、我々は無限の推測に行くと、より完璧な分割ラインを見つけることができます。しかし、最高です分割線は、どのように我々は、道路上でこれらの分割線を探す必要がありますか?これまでは取られていない、おそらく想像したことがない、おそらく推測上、戦略を推測することです。

より強力なニューラルネットワーク

単純な線形パーセプトロンモデルが所属し、ネストされた複数の層とニューラルネットワークのニューロンは、多くの複雑な問題を解決することができ増やします。

線形変換、線形および非線形変換の決定:全ニューラルネットワークモデルは、3つの要素から構成されています。線形および非線形変換は、重合の他の空間に変換する座標情報を実際にあります。別の特定の特徴に変換、線形から非線形変換する機能に属します。多層ニューラルネットワークはやって学習することを特徴とします。

数学的に、ニューラルネットワークは、入れ子関係機能によって複合体を特徴づける関係ネストされたネストされた複数の機能です。

また、物事の2種類を分類しますが、この作業は複雑で、あなたは黄色と青を見ることができますし、簡単な関数によって分割することができない、そして最も簡単なニューラルネットワークは無力となっている、あなたは、ネストされたが必要ニューラルネットワーク層の複数と解決するための神経細胞を増やします。

今度聞かせて、元の2個のニューロンを高めるために、ネットワーク層の中間、ネットワークの別の層を追加するには、2つの隠し層の合計を持っています。

この多層ニューラルネットワークのもののような複雑な種類のことができます実際に完全な分類の最終。

ニューラルネットワークを訓練

私たちは、運に依存推測に頼ることができない、ニューラルネットワークのパラメータは、あまりにも、まだニューラルネットワークを訓練するための科学的なアプローチに従うことをダウン取得する必要があります。実際に、我々は、多くの場合、誤差逆伝搬アルゴリズムは、二乗誤差が最小になるように常に各出力層の重みを調整するバックプロパゲーションニューラルネットワークによって、勾配降下法を使用してニューラルネットワークを訓練するために使用される使用します。

我々は見出さ品質関数を決定することができるように、我々は、最終的な出力を得られ、この出力と目標値はエラーとすることができるニューラルネットワークの出力層は、二乗誤差基準として使用することができます。

ここで説明する絵を書きます

さらに、誤差逆伝播は、各ニューロンは、対応するエラーを有することになるであろう。勾配降下法が毎回ニューロン特定処理の重みを更新することによって、これはすなわち、関数のすべてのパラメータを確認することができ、接続されているニューラルネットワークのパラメータを解決することができます。

おそらくプロセス:

  • フィードフォワード出力する入力信号から計算しました。

  • 予測値と目標値を出力エラーE.算出します

  • 前の層の重みによって勾配とそれに関連する重み付けされた誤差逆伝搬信号の活性化関数。

  • フィードフォワード信号と入力信号の誤差逆伝播のに基づいて、勾配パラメータ算出

  • 算出された勾配パラメータ更新を使用して、式は

------------ -------------推奨読書

私は(マシン&深い学習、NLP、ネットワークIO、AIML、MySQLの契約、チャットボット)のオープンソースプロジェクトの概要をよ

なぜ「Tomcatのコア設計解析」を書きます

2018要約データ構造アルゴリズムの論文

2018概要機械学習記事

2018概要Javaの深さの記事

2018概要自然言語処理の記事

2018概要深学習記事

2018概要JDKのソース記事

同時Javaコア論文の概要2018

2018概要読み取り記事


私との交流は、私に質問をします:

ようこそ懸念:人工知能、読書や感情や数学、分散型、機械学習、深い学習、自然言語処理、アルゴリズムとデータ構造、Javaの深さ、Tomcatのカーネルお​​よびその他の関連する記事についての話

おすすめ

転載: juejin.im/post/5cff002ae51d45775e33f53c