directorio
"Mejora de redes neuronales" | lista de notas |
---|---|
Semana 1 | Aspectos prácticos de aprendizaje profundo de |
Semana 1 Portal -> | [1.1 formación / desarrollo / equipo de prueba] [1.2 desviación / varianza] [1.3 máquina de fundación de aprendizaje] [1,4 regularización] [1.5 ¿Por qué regularización puede reducir el exceso de montaje] [1,6 deserción regularización] [1,7 entienden deserción] [1.8 otro método de regularización] [1,9 entrada normalizada] [1.10 desaparece gradiente y explosión gradiente] [1.11 pesos de la red neural re-inicialización] [valor de 1,12 gradiente de aproximación] [1,13 prueba de gradiente] [1,14 Nota sobre la prueba de gradiente logra] |
Semana 2 | algoritmo de optimización |
Semana 2 Portal -> | [2,1 Mini-batch pendiente de descenso] [2,2 apreciarse que mini-lote pendiente de descenso] [ponderado promedio de índice 2,3] [2,4 índice apreciado medio ponderado] [desviación media ponderada de 2,5 índice de la corrección] [2,6 impulso método de descenso de gradiente] [2,7 RMSprop ] [2,8 algoritmo de optimización Adán] [tasa de descomposición de aprendizaje 2.9] [2.10 óptimo local] |
semana 3 | pruebas de Ultra-parámetro, la regularización por lotes y marco procedimental |
Semana 3 Portal -> | [Depuración 3.1] [3.2 La elección de rango adecuado es la hiper-parameters] [3.3 formación práctica hiper-parámetros: pandas FC vs. Caviar] [Función de activación de la red 3.4 regularización] [3,5 lotes Norma encajan en la red neuronal] [3.6 ¿por qué trabajar por lotes Norma] lote en [3.7 prueba de Norma] [3,8 retorno Softmax] [3,9 Softmax el entrenamiento de un clasificador] [3.10 marco de aprendizaje profundo] [3.11 TensorFlow] |
entrevista | entrevista de Daniel |
Portal -> | Yoshua Yuanqing Lin |