機械学習の基礎に関する Lin Xuantian のメモ (4)

4. 学習の実現可能性 機械学習の実現可能性

ちょっとひっくり返って、15 16 17 よくわかりません、後で見て補います

P14 4.1
機械学習の実現可能性を探る いくつかの問題 x と y の間の関係については多くの説明があります。たとえば、一部のいわゆる「IQ 質問」には実際にその解決策について多くの説明があります。それでは機械学習は可能でしょうか?

P15 4.2
推論するためのいくつかの方法:
トレーニング セット (D (ノイズのあるデータ入力)) とテスト セット (D の外側) が接続されます。
v は既知、u は未知です
。 ヘフディングの不等式: データが多いほど、間のギャップは小さくなります。 uとvは
ギャップを減らすための方法です。 Nを増やす:データ量を増やす(∈を増やすことは非推奨)
Nが大きい場合、「v = u」がPACであると言えます(おそらくほぼ正しい)

P16 4.3
ここに画像の説明を挿入
h(xn)!=yn のデータから判定された h と f が異なる確率

ここに画像の説明を挿入
したがって、同じデータ (独立した同一の分布) をトレーニング セットとテスト セットに分割できます。

ここに画像の説明を挿入
各データセットに対して毎回 1 つの h を選択するアルゴリズムがある場合、
このアルゴリズムは H セット内の異なる h を選択するアルゴリズムよりも劣ります。

P17 4.4
ここに画像の説明を挿入
ホッフィ... 誤差が高すぎないことを制限する確率の上限を保証し、特定の条件下で
ここに画像の説明を挿入
N が十分に大きい限り学習が可能であることを証明し、Eout ≈ Ein が保証できることを証明する

おすすめ

転載: blog.csdn.net/Only_Wolfy/article/details/89470421