機械学習の関連する数学的基礎

1.機械学習の数学部分で一般的に使用される関連概念:

(1)。高度な数学

1)機能

2)制限

3)デリバティブ

4)極値と最大値

5)テイラーシリーズ

6)勾配

7)勾配降下

(2)。線形代数

1)基本的な考え方

2)行列式

3)マトリックス

4)最小二乗法

5)ベクトルの線形相関

(3)。確率論

1)イベント

2)順列と組み合わせ

3)確率

4)ベイズの定理

5)確率分布

6)期待と差異

7)パラメータ推定

 

2.ビデオ学習コンテンツ:https : //www.bilibili.com/video/BV1Tb411H7uC?p=2

1)P2確率論とベイズ事前分布

2)P3行列と線形代数

機械学習は、より多くの数学的な知識を必要とする学際的な学際的な科目です。このレッスンの知識は以前に学習されています。今回は、キーポイントに従って再編成されます。さらに注意を払う必要があります。ビデオを見ることで、全員がコースの基本的な数学の印象を深めました。

必要に応じて振り返れるように、見ながらメモを取り、要点と時点を記録しておくことをお勧めします。研究ノートも課題の一部です。

 

3.要件:

(1)真正性を必要とするビデオ学習ノートを貼り付けます。コピーは行わず、手書きで写真を撮ることができます。

1)P2確率論とベイズ事前分布

  ビデオで学んだメモ(式)を記録する

 

 

2)P3行列と線形代数

  行列と線形代数の主な内容は次のとおりです。

 

使用される線形代数の知識は次のとおりです。

1.正方行列の行列式間の演算

2.代数補因子

3.ヴァンダーモンドの行列式ヴァンダーモンド

4.行列の乗算

5.マトリックスのランク

6.ランクと線形方程式の解との関係

7.直交配列

8.固有値と固有ベクトル

9.正定値配列

 

(2)「グラディエント」「グラディエントディセント」「ベイズの定理」を自分の言葉でまとめると、単語の編集、マインドマッピング、手書き、写真が必要で、簡潔さとすっきりとしたレイアウトが必要です。

  勾配の元の意味はベクトル(ベクトル)です。つまり、その点での関数の方向微分は、方向に沿って最大値をとります。つまり、関数は、方向(勾配の方向)に沿った点で最も速く変化します。レートは最大です(勾配の係数)。簡単に言えば、単変量実数値関数の場合、勾配は単なる導関数であり、線形代数の場合、直線の傾きです。

  勾配降下法は、最小二乗問題(線形と非線形の両方)を解くために使用できる反復法です。機械学習アルゴリズムのモデルパラメーター、つまり制約のない最適化問題を解く場合、勾配降下法は最も一般的に使用される方法の1つです。簡単に言えば、山の頂上から山を下りる最速かつ急なルートを見つけることです

ベイズの定理:ベイズの公式は、イベントの原因を見つける条件付き確率に基づいています(つまり、大きなイベントAが発生したという条件下で、セグメンテーションの小さなイベント

確率)、仮定すると

サンプル空間Ωの除算であり、イベントA(P(A)> 0)の場合、ベイズの定理があります。

特徴セットxの場合、サンプルがこの特徴セットxの下でどのカテゴリに属する​​かを知りたい、つまり、事後確率P(c | x)が最大のクラスラベルを見つけます。ベイズの公式に基づいて、以下を取得できます。

  ベイズの定理は、P(A | B)とP(B | A)などの2つの条件付き確率間の関係を説明するために使用される定理です。一般に、イベントBが発生する条件下でのイベントAの確率{P(A | B)}イベントAの条件下でのイベントBの確率{P(B | A)}は異なりますが、2つの間に明確な関係があり、ベイズの規則はこの関係のステートメントです。

おすすめ

転載: www.cnblogs.com/Rakers1024/p/12687501.html