数学学習の基礎の深さ

機械学習入門:

固有ベクトル

目的関数

機械学習カテゴリ:

教師付き学習:回帰(例えば顔認識、文字認識、音声認識など)分類問題

教師なし学習:クラスタリング、次元削減

強化学習:、状態の現在の状態に基づいて予測を遅延しているような無人として戻り、リターンを最大化するために、チェス

ディープ学習数学:微積分、線形代数、確率論、最適化手法

一つの変数微積分の機能:

の代わりに、多項式近似関数:変数関数のテイラー展開

私たちは、テイラー展開の近くにいくつかの点で行う必要があります。

一つの元の差動結石:派生、テイラー展開、極値反乱法。

多変数の微積分:

偏微分:定数、微分の変数の一つとして、他の変数。

高次偏微分:かかわらず誘導体ための一般的に、混合二階偏微分。

勾配:各変数の多変量関数を構成するベクトルの一次偏導関数。

テイラー・多機能拡張

線形代数:

ベクター:n次元空間内の点。多くの場合、プログラミングでしばしば列ベクトル数学、列ベクトル(行優先ストレージ)

ベクトル演算:加算、乗算、減算、内積、転置、ベクトルのノルム(非負実数のベクトルマップ)

ベクトルのノルム:電力Pを開くための成分の絶対値のLpノルムのp乗の和。L1ノルム:絶対成分の合計。L2ノルム:ベクター/鋳型の長さ。

マトリックス:二次元配列です。逆行列、固有値、二次行列。

テンソル:多次元アレイのプログラミング言語の同等の、n次テンソル。

図2は、ベクターがテンソルで、テンソル行列です。RGBカラー画像などの3階テンソルの量です。

ヤコビ行列:各多変量関数の挙動マトリックスよりジャック勾配を構成する全ての独立変数に対する従属変数の全ての偏導関数の行列。

ヘッセ行列:二階偏微分行列構成は、多変数関数は、1つの変数の二次導関数に対応する、対称行列です。

 

機能の極端な判別方法:Fとしてヘッセ行列の行為「」(x)は、

ヘッセ行列が正定値である場合、この関数は、ポイントの最小値を有し、負明確ヘッセ行列は、関数は点で最大値を有する場合、ヘッセ行列は、サドル点が極値点なかった場合は不明。

正定値行列が定義される:X [T]アックス> 0

正定値行列の基準:全固有値行列が0より大きい場合は、すべてのマスター行列の順序は、ユニットマトリクスアレイ契約0より大きい。

行列とベクトルの導出:

X傾斜WTX W =

X =(A + AT)は、xのxTAx勾配

xTAxヘッセ行列xのオペレータ(ヘッセ行列)= A + AT

 

確率:

ランダムイベントの確率は、ランダムイベント

条件付き確率:

P(A、B)= P(B | A)* P(A)P(A、B)= P(A | B)* P(B)=> P(B | A)* P(A)= P(A | B)* P(B)

ベイズ式:

pは分割式の両辺に(B)を得た:Pを(| B)= P(A)* P(B | A)/ P(b)はP次いで、Bとして見られる果実の結果として見られます( B | A)は事前確率、P(呼ばれ| B)と呼ばれる事後確率、ベイズの公式は事前確率と事後確率との関係に基づいています。

独立したランダムイベントP(A、B、C)= P(A)P(B)、P(C)

ランダム変数:

ランダムイベントの可変量子化後、各確率値に関連付けられた変数の値をとります。

離散確率変数:

専用ケースの値の限られた数、または場合であってもよい列の無限の数(すべての整数のような0無限列の正の無限大に、0〜1の全ての実数は無限列ではありません)。説明離散確率確率変数の分布:P(X = XI)≥0、ΣP(X = XI)= 1。

連続確率変数:

カラムの値が無限大の場合、すなわち、範囲内の実数ではありません。、分布関数F(Y)= P(x≤yとして定義されるf(x)が≥0、∫F(x)はDX = 1:連続確率変数の説明は、確率密度関数と分布関数、満足する確率密度関数であります)=∫F(X)DX

 

おすすめ

転載: www.cnblogs.com/wisir/p/11616029.html