4. Faisabilité de l'apprentissage La faisabilité de l'apprentissage automatique
Un peu renversé, 15 16 17 Je ne comprends pas trop, je regarderai plus tard pour me rattraper
P14 4.1
Explorer la faisabilité de l'apprentissage automatique. Il existe de nombreuses explications pour le lien entre certains problèmes x et y. Par exemple, certaines soi-disant "questions de QI" ont en fait de nombreuses explications pour leurs solutions. L'apprentissage automatique est-il donc possible ?
P15 4.2
Quelques méthodes pour inférer :
l'ensemble d'apprentissage (D (entrée de données bruitée)) et l'ensemble de test (hors D) seront connectés
v est connu, u est inconnu
inégalité de hoeffding : plus il y a de données, plus l'écart entre u et v est
de réduire l'écart La méthode : augmenter N : augmenter la quantité de données (il n'est pas recommandé d'augmenter ∈)
Si N est grand, alors on peut dire que "v = u" est PAC (probablement approximativement correct)
P16 4.3
À partir des données de h(xn)!=yn La probabilité que h et f jugés soient différents
Par conséquent, les mêmes données (distribution indépendante et identique) peuvent être divisées en ensemble d'apprentissage et en ensemble de test
S'il existe un algorithme qui choisit un h à chaque fois pour chaque ensemble de données,
alors cet algorithme est pire que l'algorithme qui choisit différents h dans l'ensemble H
P17 4.4
hoffi... Garantir que des bornes supérieures de probabilité pour contraindre l'erreur ne seront pas trop élevées, prouver que sous certaines conditions, l'apprentissage est possible
tant que N est assez grand, Eout≈Ein peut être garanti