0.0 Contenido - Lección aprendizaje profundo "red neuronal para mejorar la" -Stanford profesor Andrew Ng

directorio

"Mejora de redes neuronales" lista de notas
Semana 1 Aspectos prácticos de aprendizaje profundo de
Semana 1 Portal -> [1.1 formación / desarrollo / equipo de prueba]
[1.2 desviación / varianza]
[1.3 máquina de fundación de aprendizaje]
[1,4 regularización]
[1.5 ¿Por qué regularización puede reducir el exceso de montaje]
[1,6 deserción regularización]
[1,7 entienden deserción]
[1.8 otro método de regularización]
[1,9 entrada normalizada]
[1.10 desaparece gradiente y explosión gradiente]
[1.11 pesos de la red neural re-inicialización]
[valor de 1,12 gradiente de aproximación]
[1,13 prueba de gradiente]
[1,14 Nota sobre la prueba de gradiente logra]
Semana 2 algoritmo de optimización
Semana 2 Portal -> [2,1 Mini-batch pendiente de descenso]
[2,2 apreciarse que mini-lote pendiente de descenso]
[ponderado promedio de índice 2,3]
[2,4 índice apreciado medio ponderado]
[desviación media ponderada de 2,5 índice de la corrección]
[2,6 impulso método de descenso de gradiente]
[2,7 RMSprop ]
[2,8 algoritmo de optimización Adán]
[tasa de descomposición de aprendizaje 2.9]
[2.10 óptimo local]
semana 3 pruebas de Ultra-parámetro, la regularización por lotes y marco procedimental
Semana 3 Portal -> [Depuración 3.1]
[3.2 La elección de rango adecuado es la hiper-parameters]
[3.3 formación práctica hiper-parámetros: pandas FC vs. Caviar]
[Función de activación de la red 3.4 regularización]
[3,5 lotes Norma encajan en la red neuronal]
[3.6 ¿por qué trabajar por lotes Norma]
lote en [3.7 prueba de Norma]
[3,8 retorno Softmax]
[3,9 Softmax el entrenamiento de un clasificador]
[3.10 marco de aprendizaje profundo]
[3.11 TensorFlow]
entrevista entrevista de Daniel
Portal -> Yoshua
Yuanqing Lin
Ha publicado 187 artículos originales · alabanza 7 Ganador · vistas 10000 +

Supongo que te gusta

Origin blog.csdn.net/weixin_36815313/article/details/105369644
Recomendado
Clasificación