コンセプトスタディ自習ノート
概念学習:
以下の点を把握することで、学習の概念をより深く理解することができます。
-
離散数学の半順序関係は、FIND_Sアルゴリズムと候補除去アルゴリズムをよりよく理解するための鍵です。
-
探索問題の観点から理解する
-
トレーニングセットにノイズの多いデータが含まれている場合、概念学習のパフォーマンスは低下します
用語と記号表現
-
ターゲットコンセプトc:はブール関数h:X→{0,1}
-
目標コンセプト値:c(x)
-
良い例:c(x)= 1
-
反例:c(x)= 0
-
トレーニング例:<x、c(x)>
-
トレーニングサンプルコレクション:D
-
考えられるすべての仮説:H
-
単一の仮説:hはブール関数h:X→{0,1}
Find-S:極端な特別な仮説を見つける
ここでの私たちの仮説は接続詞です
簡単な説明:Hの最も具体的な仮説から始めて、仮説が肯定的な例をカバーできない場合はそれを一般化します。
最も具体的な仮説:<Ø,Ø,Ø,Ø,Ø,Ø>
アルゴリズムの説明(トレーニングプロセス)
For each positive training instance x
For each attribute constraint ai ∈ h
If the constraint ai ∈ h is satisfied by x
then do nothing
else replace ai ∈ h by the next more general constraint
that is satisfied by x
Output hypothesis
最も具体的な仮説から始めて、Find-Sは、出力がHの肯定的な例と一致する最も具体的な仮説であることを保証します。
候補除去アルゴリズム
- 候補除去アルゴリズムの出力は、トレーニング例と一致するすべての仮説のセットであり、Find-Sはそのうちの1つにすぎません。
- 半順序関係のため、候補除去アルゴリズムは、トレーニングセットを記述するときにそのすべてのメンバーを明示的に列挙する必要はありません。
- ただし、Find-Sと同様に、ノイズの多いデータがあるとパフォーマンスが低下します。
バリアントスペース
-
一般的な境界G
-
特別な境界S
初始化:G <- {<?,?,?,?,?,?>} S <- {<,,,,,>} 遍历训练集 d = < x, c (x) > If d 是个正例 对G:移出G中与d不一致(即假设得到的概念与样本真实概念取值不符)的所有假设 对S:移出S中与d不一致的所有假设;如果一个假设h与d一致且G中有比h更一般的假设,那么将该假设加入S If d 是个负例 对S:移出S中与d不一致(即假设得到的概念与样本真实概念取值不符)的所有假设 对G:移出G中与d不一致的所有假设;如果一个假设h与d一致且S中有比h更具体的假设,那么将该假设加入
いくつかの説明と説明
トレーニングデータにエラーが含まれている場合はどうなりますか
- 正しいターゲットコンセプトを削除します
- 十分なトレーニングデータ、SおよびG境界は空のバリアント空間に収束します
偏りのない学習者
ターゲット概念が仮説空間にあることを確認するには、すべての教育可能な概念を表現できる仮説空間が必要です。言い換えると、インスタンスセットXのすべての可能なサブセットを表現できます。そして、セットXのすべてのサブセットのセットをXのべき集合(べき集合)と呼びます。
- これは接続詞であるだけでなく、ターゲットの概念を表現できないことを心配する必要がないという仮説です。ただし、概念学習アルゴリズムは、トレーニング例からはまったく一般化されません。!!
- Sは正の例の論理和になり、Gは負の例の論理和の否定になります
偏りのない学習の無用
-
上記の紹介で、偏りのない学習の無用さを理解することは難しくありません。
-
しかし、それは帰納的推論の基本的な特性も示しています。学習者がターゲット概念の形式について事前推定を行わない場合、目に見えない例をまったく分類できません。
-
帰納的学習には、バイアス誘導とも呼ばれる特定の形式の前提が必要であるため、バイアス誘導を使用して、さまざまな学習方法の特性を記述することができます。