Directorio de artículos
el aprendizaje permanente
Esperemos que la máquina siga aprendiendo.
Se obtienen comentarios después de lanzar el modelo y se actualizan los parámetros.
Dificultades de LLL
Si aprende la tarea 1 primero y luego aprende la tarea 2, olvidará la 1. Si entrenáis juntos conseguiréis grandes resultados.
QA: dado un documento, responda preguntas basadas en el documento.
Aprende tareas una por una, aprende tareas nuevas y olvida tareas antiguas.
Puede aprender múltiples tareas y algunas obtienen buenos resultados.
Olvido catastrófico
Si desea que la máquina lo recuerde todo, debe aprender todos los datos, y el tiempo de almacenamiento de datos y entrenamiento es muy grande.
El entrenamiento multitarea puede considerarse el límite superior de LLL.
Esperamos que la máquina pueda aprender múltiples tareas en un modelo sin olvidar las tareas aprendidas previamente.
LLL es muy similar al aprendizaje por transferencia, pero el aprendizaje por transferencia se enfoca en la precisión de las tareas nuevas, no en las tareas antiguas.
Evaluar
2. Tres soluciones de LLL
1. Plasticidad sináptica selectiva
Que algunas conexiones de neuronas sean plásticas y otras solidificadas.
¿Por qué hay un olvido catastrófico?
Cuanto más azul es la pérdida, más blanca es la pérdida.
El siguiente enfoque olvidará la tarea 1, ¿es posible para él restringir θ para moverse hacia la derecha?
Idea básica: algunos parámetros del modelo son importantes para las tareas anteriores. Cambie solo los parámetros sin importancia. θb es el modelo aprendido de tareas anteriores. Únete a la guardia bi y reescribe nuestra ecuación de pérdida. Agregamos la suma de los términos al cuadrado de la diferencia entre los parámetros anteriores y los parámetros actuales, y esperamos que sean lo más parecidos posible, pero no todas las dimensiones de los parámetros son lo más parecidas posible, por lo que se introduce bi.
bi=0, olvido catastrófico, que equivale a no configurar este ítem. Bi es muy grande, lo que significa que los parámetros antes y después son muy similares, por lo que no hay forma de aprender bien en tareas posteriores.
¿Cómo crees que esos parámetros son más importantes?
bi puede contar
JOYA
2. Asignación de recursos neuronales adicionales
¡Entrenamiento adicional de otros modelos, los parámetros del modelo antes del experimento
no resolvieron completamente este problema!
paqueteNet&CPG
packNet usa una red relativamente grande y usa diferentes parámetros para diferentes tareas.
3, respuesta de memoria
Genere datos falsos utilizando el modelo generativo de la tarea anterior.
Clasificadores multitarea con diferente número de clases:
Aprendizaje curricular
Invertir el orden de los resultados de aprendizaje de tareas en diferentes resultados. Curriculum Learning es un método para estudiar la secuencia de tareas.