4. 学習の実現可能性 機械学習の実現可能性
ちょっとひっくり返って、15 16 17 よくわかりません、後で見て補います
P14 4.1
機械学習の実現可能性を探る いくつかの問題 x と y の間の関係については多くの説明があります。たとえば、一部のいわゆる「IQ 質問」には実際にその解決策について多くの説明があります。それでは機械学習は可能でしょうか?
P15 4.2
推論するためのいくつかの方法:
トレーニング セット (D (ノイズのあるデータ入力)) とテスト セット (D の外側) が接続されます。
v は既知、u は未知です
。 ヘフディングの不等式: データが多いほど、間のギャップは小さくなります。 uとvは
ギャップを減らすための方法です。 Nを増やす:データ量を増やす(∈を増やすことは非推奨)
Nが大きい場合、「v = u」がPACであると言えます(おそらくほぼ正しい)
P16 4.3
h(xn)!=yn のデータから判定された h と f が異なる確率
したがって、同じデータ (独立した同一の分布) をトレーニング セットとテスト セットに分割できます。
各データセットに対して毎回 1 つの h を選択するアルゴリズムがある場合、
このアルゴリズムは H セット内の異なる h を選択するアルゴリズムよりも劣ります。
P17 4.4
ホッフィ... 誤差が高すぎないことを制限する確率の上限を保証し、特定の条件下で
N が十分に大きい限り学習が可能であることを証明し、Eout ≈ Ein が保証できることを証明する