El aprendizaje permanente

A diferencia de otros métodos

  • Muti-tarea de aprendizaje
    materiales de capacitación para las necesidades de cada tarea para incluir, y capacitar a cada tarea, un serio desafío para el almacenamiento y los recursos informáticos se pueden utilizar como el límite superior LLL
  • Transferencia de aprendizaje
    Desde tarea de transferencia de A a la tarea B, sólo se requieren las cifras de rendimiento pueden estar en la tarea B, requisitos de LLL en la A, el rendimiento de B es buena

Evaluación

Aquí Insertar imagen Descripción

Sin olvidar viejo para aprender un nuevo

  • Constraint-basado
    poner una banda de guarda (coeficiente) es un término de regularización, a fin de cambiar diferentes parámetros influyen diferente guardia CER = Pérdida en el coeficiente diferencial secundario (velocidad de cambio)
    Aquí Insertar imagen Descripción
  • basado en generado
    la formación de otra red generación antes de la formación de imagen a la tarea -> aprendizaje de tareas Muti

Viejo y nuevo conocimiento ayudarse mutuamente

GEM: Limitaciones dirección del gradiente en favor de las últimas tareas de actualización
de uso desleal de datos en el pasado misión

Ye modelo de expansión no es suficiente

  • Recepción de la salida de la última tarea, bola de nieve de la red
  • La ampliación de la red (+ ruido), un poco como una deserción inversa

Problema a ser resuelto:

El entrenamiento de la secuencia?

Publicado 35 artículos originales · ganado elogios 2 · Vistas 1435

Supongo que te gusta

Origin blog.csdn.net/qq_30776035/article/details/99967481
Recomendado
Clasificación