Notes de Lin Xuantian sur les fondements de l'apprentissage automatique (4)

4. Faisabilité de l'apprentissage La faisabilité de l'apprentissage automatique

Un peu renversé, 15 16 17 Je ne comprends pas trop, je regarderai plus tard pour me rattraper

P14 4.1
Explorer la faisabilité de l'apprentissage automatique. Il existe de nombreuses explications pour le lien entre certains problèmes x et y. Par exemple, certaines soi-disant "questions de QI" ont en fait de nombreuses explications pour leurs solutions. L'apprentissage automatique est-il donc possible ?

P15 4.2
Quelques méthodes pour inférer :
l'ensemble d'apprentissage (D (entrée de données bruitée)) et l'ensemble de test (hors D) seront connectés
v est connu, u est inconnu
inégalité de hoeffding : plus il y a de données, plus l'écart entre u et v est
de réduire l'écart La méthode : augmenter N : augmenter la quantité de données (il n'est pas recommandé d'augmenter ∈)
Si N est grand, alors on peut dire que "v = u" est PAC (probablement approximativement correct)

P16 4.3
insérez la description de l'image ici
À partir des données de h(xn)!=yn La probabilité que h et f jugés soient différents

insérez la description de l'image ici
Par conséquent, les mêmes données (distribution indépendante et identique) peuvent être divisées en ensemble d'apprentissage et en ensemble de test

insérez la description de l'image ici
S'il existe un algorithme qui choisit un h à chaque fois pour chaque ensemble de données,
alors cet algorithme est pire que l'algorithme qui choisit différents h dans l'ensemble H

P17 4.4
insérez la description de l'image ici
hoffi... Garantir que des bornes supérieures de probabilité pour contraindre l'erreur ne seront pas trop élevées, prouver que sous certaines conditions, l'apprentissage est possible
insérez la description de l'image ici
tant que N est assez grand, Eout≈Ein peut être garanti

Je suppose que tu aimes

Origine blog.csdn.net/Only_Wolfy/article/details/89470421
conseillé
Classement