Libro Come sandía conmigo | Súper fácil de entender | Aprendizaje automático | Zhou Zhihua

¡Mira aquí! ¡No te lo pierdas si pasas por aquí! ! !
Lo que los novatos necesitan saber: come libros de sandía conmigo

Los principales contenidos del Libro de la Sandía:

Capítulo 1 Introducción
1.1 Introducción (P1)
1.2 Terminología básica (P2)
1.3 Espacio de hipótesis (P4 )
1.4 Preferencia inductiva (P6)
1.5 Proceso de desarrollo (P10)
1.6 Estado actual de la aplicación (P13)
1.7 Materiales de lectura (P16)

Capítulo 2 Evaluación y selección de modelos
2.1 Error empírico y sobreajuste (P23)
2.2 Método de evaluación (P24)
  2.2.1 Método de reserva
  2.2.2 Método de validación cruzada
  2.2.3 Método Bootstrap
2.3 Medición del rendimiento
  2.3.1 Tasa de error y precisión (P29)
  2.3 .2 Tasa de precisión, tasa de recuperación y F1
  2.3.3 ROC y AUC (P33)
  2.3.4 Tasa de error sensible al costo y curva de costo
2.4 Prueba comparativa
  2.4.1 Prueba de hipótesis (P37)
  2.4.2 Prueba t de validación cruzada (P40 )
  2.4.3 Prueba de McNemar (P41)
  2.4.4 Prueba de Friedman y prueba de seguimiento de Nemenyi (P42)
2.5 Desviación y varianza (P44)
2.6 Materiales de lectura (P46)

Capítulo 3 Modelo lineal
3.1 Forma básica (P53)
3.2 Regresión lineal
3.3 Regresión de probabilidad logarítmica (P57)
3.4 Análisis discriminante lineal (P60)
3.5 Aprendizaje de clasificación múltiple (P63)
3.6 Problema de desequilibrio de categorías (P66)
3.7 Materiales de lectura (P67)

Capítulo 4 Árbol de decisión
4.1 Proceso básico (P73)
4.2 Selección de partición (P75)
  4.2.1 Ganancia de información
  4.2.2 Tasa de ganancia (P77)
  4.2.3 Índice de Gini (P79)
4.3 Procesamiento de poda
  4.3.1 Poda previa (P79)
  4.3 .2 Poda posterior (P82)
4.4 Valores continuos y perdidos
  4.4.1 Procesamiento de valores continuos (P83)
  4.4.2 Procesamiento de valores perdidos (P85)
4.5 Árbol de decisión multivariable (P88)
4.6 Materiales de lectura (P92)

Capítulo 5 Red neuronal
5.1 Modelo de neurona (P97)
5.2 Perceptrón y red multicapa (P98)
5.3 Algoritmo de retropropagación de errores (P101)
5.4 Mínimo global y mínimo local (P106)
5.5 Otras redes neuronales comunes (P108)
  5.5.1 Red RBF
  5.5.2 ART (red)
  5.5.3 Red SOM (P109)
  5.5.4 Red de correlación en cascada (P110)
  5.5.5 Red Elman
  5.5.6 Máquina Boltzmann (P111)
5.6 Aprendizaje profundo (P113)
5.7 Materiales de lectura (P115)

Capítulo 6 Máquina de vectores de soporte
6.1 Margen y vector de soporte (P121)
6.2 Problema dual (P123)
6.3 Función del núcleo (P126)
6.4 Margen suave y regularización (P129)
6.5 Regresión del vector de soporte (P133)
6.6 Método del núcleo (P137)
6.7 Material de lectura ( P139)

Capítulo 7 Clasificador de Bayes
7.1 Teoría de la decisión bayesiana (P147)
7.2 Estimación de máxima verosimilitud (P149)
7.3 Clasificador de Bayes ingenuo (P150)
7.4 Clasificador de Bayes semi-ingenuo (P154)
7.5 Red de Bayes de Sri Lanka (P156)
  7.5.1 Estructura (P157)
  7.5 .2 Aprendizaje (P159)
  7.5.3 Inferencia (P161)
7.6 Algoritmo EM (P162)
7.7 Materiales de lectura (P164)

Capítulo 8 Aprendizaje en conjunto
8.1 Individual y en conjunto (P171)
8.2 Impulso (P173)
8.3 Ensacado y bosque aleatorio (P178)
  8.3.1 Ensacado
  8.3.2 Bosque aleatorio (P179)
8.4 Estrategia combinada (P181)
  8.4.1 Método promedio
  8.4.2 Método de votación (P182)
  8.4.3 Método de aprendizaje
8.5 Diversidad
  8.5.1 Descomposición de error-divergencia (P185)
  8.5.2 Medición de la diversidad (P186)
  8.5.3 Mejora de la diversidad (P188)
8.6 Materiales de lectura (P190)

Capítulo 9 Agrupación en clústeres
9.1 Tarea de agrupación en clústeres (P197)
9.2 Medición del rendimiento
9.3 Cálculo de distancias (P199)
9.4 Agrupación de prototipos (P202)
  9.4.1 Algoritmo de k-medias
  9.4.2 Cuantización de vectores de aprendizaje (P204)
  9.4.3 Agrupación de mezclas gaussianas (P206)
9.5 Agrupación de densidad (P211)
9.6 Agrupación jerárquica (P214)
9.7 Materiales de lectura (P217)

Capítulo 10 Reducción de dimensionalidad y aprendizaje de métricas
10.1 k Aprendizaje del vecino más cercano (P225)
10.2 Incrustación de baja dimensión (P226)
10.3 Análisis de componentes principales (P229)
10.4 Reducción de dimensionalidad lineal kernelizada (P232)
10.5 Aprendizaje múltiple (P234)
  10.5.1 Mapeo de métricas iguales (P234)
  10.5.2 Incrustación lineal local (P235)
10.6 Aprendizaje métrico (P237)

Capítulo 11 Selección de funciones y aprendizaje disperso
11.1 Búsqueda y evaluación de subconjuntos (P257)
11.2 Selección de filtros (P249)
11.3 Selección envuelta
(P250) 11.4 Selección integrada y regularización L1 (P252)
11.5 Representación dispersa y aprendizaje de diccionario (P254)
11.6 Predicción de compresión (P257 )
11.7 Materiales de lectura (P260)

Capítulo 12 Teoría del aprendizaje computacional
12.1 Conocimiento básico (P267)
12.2 Aprendizaje PAC (P268)
12.3 Espacio de hipótesis limitado
  12.3.1 Situación separable (P270)
  12.3.2 Situación inseparable (P272)
12.4 Dimensión VC (P273)
12.5 Complejidad de Rademacher (P279)
12 .6 Estabilidad (P284)
12.7 Materiales de lectura (P287)

Capítulo 13 Aprendizaje semisupervisado
13.1 Muestras sin etiquetar (P293)
13.2 Métodos generativos (P295)
13.3 SVM semisupervisado (P298)
13.4 Aprendizaje semisupervisado de gráficos (P300)
13.5 Métodos basados ​​en desacuerdos (P304)
13.6 Agrupación semisupervisada (P307 )
13.7 Materiales de lectura (P311)

Capítulo 14 Modelo gráfico probabilístico
14.1 Modelo oculto de Markov (P320)
14.2 Campo aleatorio de Markov (P322)
14.3 Campo aleatorio condicional (P325)
14.4 Aprendizaje e inferencia
  14.4.1 Eliminación de variables (P328)
  14.4.2 Propagación de creencias (P330)
14.5 Inferencia aproximada
  14.5 .1 Muestreo MCMC (P331)
  14.5.2 Inferencia variacional (P334)
14.6 Modelo de tema (P337)
14.7 Materiales de lectura (P339)

Capítulo 15 Aprendizaje de reglas
15.1 Conceptos básicos (P347)
15.2 Cobertura secuencial (P349)
15.3 Optimización de poda (P352)
15.4 Aprendizaje de reglas de primer orden (P354)
15.5 Programación lógica inductiva (P357)
  15.5.1 Generalización general mínima (P358)
  15.5.2 Reducción inversa (P359)
15.6 Materiales de lectura (P363)

Capítulo 16 Aprendizaje por refuerzo
16.1 Tareas y recompensas (P372)
16.2 Máquina de juego K-Rocker
  16.2.1 Exploración y utilización (P373)
  16.2.2 ε-Greedy (P374)
  16.2.3 Softmax (P375)
16.3 Aprendizaje modelo
  16.3 .1 Evaluación de políticas (P377)
  16.3.2 Mejora de políticas (P379)
  16.3.3 Iteración de políticas e iteración de valores (P381)
16.4 Aprendizaje sin modelos (P382)
  16.4.1 Aprendizaje por refuerzo Monte Carlo (P383)
  16.4.2 Aprendizaje de diferencia temporal (P386)
16.5 Aproximación de la función de valor (P388)
16.6 Aprendizaje por imitación (P390)
  ​​16.6.1 Aprendizaje por refuerzo inverso (P391)
16.7 Materiales de lectura (P393)

Apéndice
A Matriz
  A.1 Cálculo básico (P399)
  A.2 Derivadas (P400)
  A.3 Descomposición de valores singulares (P402)
B Optimización
  B.1 Método del multiplicador de Lagrange (P403)
  B.2 Programación cuadrática (P406)
  B.3 Positivo regla semidefinida (P407)
  B.4 Método de descenso de gradiente
C Distribución de probabilidad
  C.1 Distribución de probabilidad común (P409)
    C.1.1 Distribución uniforme
    C.1.2 Distribución de Bernoulli
    C.1.3 Distribución binomial
    C.1.4 Distribución de más términos
    C.1.5 Beta distribución (P411)
    C.1.6 Distribución de Dirichlet
    C.1.7 Distribución gaussiana
  C.2 Distribución conjugada (P413)
  C.3 Divergencia KL (P414)

Referencias:

  1. https://mp.weixin.qq.com/mp/appmsgalbum?__biz=Mzg5NjE1NTc1OA==&action=getalbum&album_id=3026152859105230849&scene=173&from_msgid=2247484508&from_itemidx=1&count=3&nolastread=1#wechat_re directo
  2. https://blog.csdn.net/Nagato_Yuki_SOS/article/details/107821077

Supongo que te gusta

Origin blog.csdn.net/weixin_43843918/article/details/131907349
Recomendado
Clasificación