AIのために必要な数学的基礎

まず、[計算]

基本概念(リミット、微分、微分フルと偏微分を導くことができる):限り、微積分を学ぶように、そうでない場合は学業を継続することはできませんどのようなコンセプトを理解することが必要です。

関数の導出:導出はグラデーションの基礎であり、そして勾配はAIアルゴリズムの基礎であるので、派生は非常に重要です!コンセプトは明確であること、および共通機能ガイド機能評価方法を学ばなければなりません。

チェーンルール:導出関数、逆伝搬アルゴリズムの理論的基礎の法則に沿っインチ

テイラー式とフェルマー補題:両方勾配降下ベースのアプローチは、同じ導出の重要性の組成物です。

微分方程式とその解決策:それは重要であり、必要な知識を解決するための機械学習モデルの一部です。

ラグランジュ乗数とデュアル学習:SVM / SVRの理論的基礎を理解します。SVM / SVR機械学習モデルは、「バックボーン」を使用して、その重要性は自明です。

 

第二に、統計的確率[]


単純な統計情報(数、最大値、最小値、中央値、平均値、分散)とその物理的意味:確率と統計の概念の基礎。

そして、ランダムサンプリング:ランダム-確率と統計に基づいて設立され、サンプリング-統計的手法。

頻度と確率だけでなく、確率の基本的な概念:確率、それとの接触の周波数との差であるかを調べます。

いくつかの一般的な確率分布と式(平均分布、二項分布、正規分布......)

パラメータ推定:のみ行う方法の特定のパラメータを知らない、一般的な分布を知っていますか?それは我々が推定することができ、重要ではありません。最も重要なものの1つは、最尤推定値です。

中心極限定理は:あなたがそれを行う方法の何かの確率分布がわからない場合、それは通常の良いに沿ったものであるのと同様に、重要ではありません?。我々は、中心極限定理うんを持っているのでしかし、なぜ?これを近似することができます。

仮説検定:最後にその権利を想定する必要がありますか?確認するために私たちのサンプルによります。

ベイズ式:それはあまりにも重要です!それは、私たちは事前確率に基づいて事後確率を予測することができます。ナイーブベイズ式はそれはナイーブベイズモデル自体ああです。

回帰分析:今、「リターン」モデルの名にあまり考えたい!

状態遷移ネットワーク:チェーンの確率、隠れマルコフモデルと条件付確率場。


第三に、[線形代数]


ベクトルとスカラー:違いは物事の特徴であるもののベクトルとスカラー表現?

ベクトル空間、ベクトルとベクトル幾何学的な意味の性質:いわゆる高次元の低次元とは何を指し?同じベクトルは異なるベクトル空間内に存在することができますか?動きベクトル、ステアリングとテンションが行う方法ですか?

リニア機能:線形関数とは何か、それが自然のようなものを持っていますか?

行列と行列演算:表示される行列の目的は何ですか?マスタ行列算出根拠(定数/ベクトル/行列加算及び乗算)。

特別行列(正方、実対称行列、(半)明確な/負定値行列など)とそのプロパティ:我々は、特別な行列を分割することができ、異なる性質、それらがどの特殊な性質を持っていますか?

固有値と固有ベクトル:定義、性質、および解決の固有値。

マトリックスを用いて微分方程式を解きます。

直交:直交何ですか?直交直交ベクトル関数、および直交面ではどのように、そして物理的な意味の種類とのスーパー正式な表現です。


第四に、最適化手法[]


極端な凸関数:凸関数、凸関数と極端な、極端な値との関係で最も価値の関係が何であるかを考え出します。
注:矛盾の存在の「ボス」の国内異なる教科書の定義には、いくつかの書籍が「凸関数」の他の書籍が呼ばれると言う「凹機能。」

直感的には、私たちは常に「凸関数」は「U」のような一次元の引数状況ルックス、ボウル機能の一種のような2次元の引数の一種であると言います。

最適化:最適化問題とは何ですか?最適化の方法は何ですか?基本原則は、どのような最適化手法無制限と制限された条件の条件の下でということですか。

勾配降下:最も一般的に使用される最適化法の最も基本的な、および他の基本的な最適化手法の数は、完全に把握するようにしてください。

他の最適化アルゴリズム:、例えば、ニュートン法、勾配法、線形探索アルゴリズム、シミュレーテッドアニーリングアルゴリズム、遺伝的アルゴリズムコンジュゲートを、いくつかの他の一般的な最適化手法を理解します。

おすすめ

転載: www.cnblogs.com/leolzi/p/12023517.html