1.機械学習の数学部分で一般的に使用される関連概念:
(1)。高度な数学
1)機能
2)制限
3)デリバティブ
4)極値と最大値
5)テイラーシリーズ
6)勾配
7)勾配降下
(2)。線形代数
1)基本的な考え方
2)行列式
3)マトリックス
4)最小二乗法
5)ベクトルの線形相関
(3)。確率論
1)イベント
2)順列と組み合わせ
3)確率
4)ベイズの定理
5)確率分布
6)期待と差異
7)パラメータ推定
2.ビデオ学習コンテンツ:https : //www.bilibili.com/video/BV1Tb411H7uC?p=2
1)P2確率論とベイズ事前分布
2)P3行列と線形代数
機械学習は、より多くの数学的な知識を必要とする学際的な学際的な科目です。このレッスンの知識は以前に学習されています。今回は、キーポイントに従って再編成されます。さらに注意を払う必要があります。ビデオを見ることで、全員がコースの基本的な数学の印象を深めました。
必要に応じて振り返れるように、見ながらメモを取り、要点と時点を記録しておくことをお勧めします。研究ノートも課題の一部です。
3.要件:
(1)真正性を必要とするビデオ学習ノートを貼り付けます。コピーは行わず、手書きで写真を撮ることができます。
1)P2確率論とベイズ事前分布
ビデオで学んだメモ(式)を記録する
2)P3行列と線形代数
行列と線形代数の主な内容は次のとおりです。
使用される線形代数の知識は次のとおりです。
1.正方行列の行列式間の演算
2.代数補因子
3.ヴァンダーモンドの行列式ヴァンダーモンド
4.行列の乗算
5.マトリックスのランク
6.ランクと線形方程式の解との関係
7.直交配列
8.固有値と固有ベクトル
9.正定値配列
(2)「グラディエント」「グラディエントディセント」「ベイズの定理」を自分の言葉でまとめると、単語の編集、マインドマッピング、手書き、写真が必要で、簡潔さとすっきりとしたレイアウトが必要です。
勾配の元の意味はベクトル(ベクトル)です。つまり、その点での関数の方向微分は、方向に沿って最大値をとります。つまり、関数は、方向(勾配の方向)に沿った点で最も速く変化します。レートは最大です(勾配の係数)。簡単に言えば、単変量実数値関数の場合、勾配は単なる導関数であり、線形代数の場合、直線の傾きです。
勾配降下法は、最小二乗問題(線形と非線形の両方)を解くために使用できる反復法です。機械学習アルゴリズムのモデルパラメーター、つまり制約のない最適化問題を解く場合、勾配降下法は最も一般的に使用される方法の1つです。簡単に言えば、山の頂上から山を下りる最速かつ急なルートを見つけることです。
ベイズの定理:ベイズの公式は、イベントの原因を見つける条件付き確率に基づいています(つまり、大きなイベントAが発生したという条件下で、セグメンテーションの小さなイベント
確率)、仮定すると
サンプル空間Ωの除算であり、イベントA(P(A)> 0)の場合、ベイズの定理があります。
特徴セットxの場合、サンプルがこの特徴セットxの下でどのカテゴリに属するかを知りたい、つまり、事後確率P(c | x)が最大のクラスラベルを見つけます。ベイズの公式に基づいて、以下を取得できます。
ベイズの定理は、P(A | B)とP(B | A)などの2つの条件付き確率間の関係を説明するために使用される定理です。一般に、イベントBが発生する条件下でのイベントAの確率{P(A | B)}イベントAの条件下でのイベントBの確率{P(B | A)}は異なりますが、2つの間に明確な関係があり、ベイズの規則はこの関係のステートメントです。