【Aprendizaje】aprendizaje de por vida


el aprendizaje permanente

inserte la descripción de la imagen aquí
Esperemos que la máquina siga aprendiendo.
Se obtienen comentarios después de lanzar el modelo y se actualizan los parámetros.
inserte la descripción de la imagen aquí

Dificultades de LLL

inserte la descripción de la imagen aquí
Si aprende la tarea 1 primero y luego aprende la tarea 2, olvidará la 1. Si entrenáis juntos conseguiréis grandes resultados.
inserte la descripción de la imagen aquí
QA: dado un documento, responda preguntas basadas en el documento.
inserte la descripción de la imagen aquí
inserte la descripción de la imagen aquí
Aprende tareas una por una, aprende tareas nuevas y olvida tareas antiguas.
Puede aprender múltiples tareas y algunas obtienen buenos resultados.
inserte la descripción de la imagen aquí
Olvido catastrófico
inserte la descripción de la imagen aquí
Si desea que la máquina lo recuerde todo, debe aprender todos los datos, y el tiempo de almacenamiento de datos y entrenamiento es muy grande.
inserte la descripción de la imagen aquí
El entrenamiento multitarea puede considerarse el límite superior de LLL.
Esperamos que la máquina pueda aprender múltiples tareas en un modelo sin olvidar las tareas aprendidas previamente.
inserte la descripción de la imagen aquí
LLL es muy similar al aprendizaje por transferencia, pero el aprendizaje por transferencia se enfoca en la precisión de las tareas nuevas, no en las tareas antiguas.

inserte la descripción de la imagen aquí
inserte la descripción de la imagen aquí

Evaluar

inserte la descripción de la imagen aquí

2. Tres soluciones de LLL

1. Plasticidad sináptica selectiva

Que algunas conexiones de neuronas sean plásticas y otras solidificadas.
inserte la descripción de la imagen aquí

¿Por qué hay un olvido catastrófico?

Cuanto más azul es la pérdida, más blanca es la pérdida.
El siguiente enfoque olvidará la tarea 1, ¿es posible para él restringir θ para moverse hacia la derecha?
inserte la descripción de la imagen aquí
Idea básica: algunos parámetros del modelo son importantes para las tareas anteriores. Cambie solo los parámetros sin importancia. θb es el modelo aprendido de tareas anteriores. Únete a la guardia bi y reescribe nuestra ecuación de pérdida. Agregamos la suma de los términos al cuadrado de la diferencia entre los parámetros anteriores y los parámetros actuales, y esperamos que sean lo más parecidos posible, pero no todas las dimensiones de los parámetros son lo más parecidas posible, por lo que se introduce bi.
inserte la descripción de la imagen aquí
bi=0, olvido catastrófico, que equivale a no configurar este ítem. Bi es muy grande, lo que significa que los parámetros antes y después son muy similares, por lo que no hay forma de aprender bien en tareas posteriores.
inserte la descripción de la imagen aquí
¿Cómo crees que esos parámetros son más importantes?

inserte la descripción de la imagen aquí
inserte la descripción de la imagen aquí
inserte la descripción de la imagen aquí
inserte la descripción de la imagen aquí
bi puede contar

JOYA

inserte la descripción de la imagen aquí

2. Asignación de recursos neuronales adicionales

¡Entrenamiento adicional de otros modelos, los parámetros del modelo antes del experimento
inserte la descripción de la imagen aquí
no resolvieron completamente este problema!

paqueteNet&CPG

packNet usa una red relativamente grande y usa diferentes parámetros para diferentes tareas.
inserte la descripción de la imagen aquí

3, respuesta de memoria

Genere datos falsos utilizando el modelo generativo de la tarea anterior.
inserte la descripción de la imagen aquí
Clasificadores multitarea con diferente número de clases:
inserte la descripción de la imagen aquí

Aprendizaje curricular

Invertir el orden de los resultados de aprendizaje de tareas en diferentes resultados. Curriculum Learning es un método para estudiar la secuencia de tareas.
inserte la descripción de la imagen aquí

Supongo que te gusta

Origin blog.csdn.net/Raphael9900/article/details/128613724
Recomendado
Clasificación