"Análisis visual del aprendizaje automático explicable" de la Universidad de Tsinghua Liu Shixia (con PPT)

 

 

 

 

Universidad de Tsinghua Liu Shixia "Análisis visual del aprendizaje automático interpretable" (con PPT)

Hoy comparto con ustedes el discurso PPT del maestro Liu Shixia de la Universidad de Tsinghua: "Análisis visual para el aprendizaje automático explicable"

En este informe, el profesor Liu Shixia introdujo principalmente un trabajo de aprendizaje automático interpretable basado en el análisis visual (este artículo presentará el contenido del informe en primera persona).

En nuestro trabajo y nuestra vida diaria, el aprendizaje automático está en todas partes. Los ejemplos típicos incluyen búsqueda, recomendación y detección de fraude. El aprendizaje automático juega un papel muy importante en estas tareas.

Para permitirnos comprender mejor el mecanismo de trabajo de los modelos de aprendizaje automático y usarlos según sea necesario. Con este fin, DARPA lanzó un proyecto de inteligencia artificial interpretable.

Xai consta de tres partes: nuestro trabajo se centra en la interfaz interpretable basada en tecnología de análisis visual, que combina la HCI más avanzada con nuevos principios, estrategias y tecnologías para producir explicaciones efectivas.

Los DNN se han convertido en la tecnología más avanzada en muchas aplicaciones de inteligencia artificial. Sin embargo, los investigadores han descubierto que los DNN a menudo son vulnerables a ejemplos adversos generados con fines maliciosos que están diseñados para engañar a los DNN para hacer predicciones erróneas.

Este fenómeno conlleva altos riesgos para la aplicación de DNN en aplicaciones críticas y de seguridad (como automóviles sin conductor y cajeros automáticos de reconocimiento facial).

En este trabajo, proporcionamos una herramienta de análisis visual para explicar por qué ocurre tal clasificación errónea.

[I] Primero introduce cómo extraer la ruta de datos.

[I] La clave para extraer rutas de datos es encontrar neuronas importantes.

Ahora, los investigadores generalmente usan las neuronas más receptivas como rutas de datos, pero cuando aparecen objetos secundarios que son fáciles de identificar en la imagen, se producen errores.

Hay dos razones para este error:

Primero, hay una relación compleja entre las neuronas;

En segundo lugar, la respuesta a menudo pasa una función compleja no lineal para obtener el resultado de la decisión final.

Para resolver este problema, aquí seleccionamos las neuronas que realmente pueden afectar el resultado de la decisión final como neuronas importantes.

En otras palabras, elegimos mantener la menor cantidad de neuronas posible para mantener la decisión original.

Modelando así este problema como un problema de selección de subconjunto.

 

Visualización de Liu Shixia

 

La esquina superior derecha del tiro en la cabeza del panda se reconoce como la cara de mono en la foto de cuerpo entero del gibón

 

-> ¿Nos inspiras a unir factor de escala? No cometer tales errores de bajo nivel en el rango de imagen 

Inspiración 2: Todavía es necesario "estructurar" la imagen (juicio integral de votación ponderada, y existe una combinación y relación de transición entre componentes / estructura / espacio / textura color / dominio de frecuencia ...), "multiescala"

 

A continuación, presento un trabajo relacionado sobre la explicación del mecanismo de trabajo del modelo:

Modelos generativos profundos

Hay una variable implícita arriba, denotada por Z; una red neuronal profunda pasará por el medio, puede elegir diferentes redes neuronales, diferentes profundidades, diferentes estructuras de acuerdo con su tarea; aquí están los datos X que observamos. Hay muchas de esas escenas, como las redes de generación de confrontación, que pueden generar imágenes naturales de alta dimensión. De hecho, Z puede ser un ruido muy aleatorio y se pueden generar imágenes de muy alta calidad a través de la red neuronal.

En este marco, podemos hacer mucho. Por ejemplo, se puede establecer cierta información estructural para variables ocultas. Por ejemplo, al generar una cara, algunas variables se refieren a la postura de la persona, y algunas variables pueden describir otras características. Al unir estas dos, podemos construir tal profundidad Generar el modelo.

Tiene la misma postura en la misma columna y puede cambiar otras variables para generar diferentes imágenes. Ahora es un modelo muy popular y muy poderoso.

Diferente de CNN: x y z son variables aleatorias, mientras que CNN son números reales

 

En la actualidad, la mayoría de los modelos de aprendizaje profundo son métodos basados ​​en datos, mientras que la perspectiva basada en el conocimiento ha recibido relativamente poca atención. En este sentido, una oportunidad de investigación abierta es combinar el conocimiento experto humano y la tecnología de aprendizaje profundo a través de la visualización interactiva. 

La capacitación de muchos modelos de aprendizaje profundo requiere mucho tiempo (de horas a días de cálculo) y requiere el uso de técnicas de análisis visual progresivo para atraer expertos al ciclo de análisis.

Los modelos de aprendizaje profundo suelen ser susceptibles a interferencias adversas. Los ejemplos adversos han sido modificados muy pequeños, por lo que en muchos casos, estas modificaciones pueden ser tan sutiles que el observador humano simplemente no puede notar la modificación, pero el modelo aún está equivocado.

Estos ejemplos adversos a menudo se usan para atacar modelos de aprendizaje profundo. A este respecto, en aplicaciones prácticas, es crucial mantener la solidez de los modelos de aprendizaje profundo.

Por lo tanto, una oportunidad de investigación de aprendizaje profundo interpretable es combinar el conocimiento humano para mejorar la solidez de los modelos de aprendizaje profundo.

Titulares académicos de AMiner
Titulares académicos de AMiner

La plataforma AMiner fue desarrollada por el Departamento de Computación de la Universidad de Tsinghua y tiene los derechos de propiedad intelectual completamente independientes de China. El sistema se lanzó en 2006, atrayendo más de 8 millones de visitas independientes de propiedad intelectual en 220 países / regiones, con 2,3 millones de descargas de datos y 10 millones de visitas anuales, y se ha convertido en una importante plataforma de datos y experimentación para la búsqueda académica y la investigación minera de redes sociales.

https://www.aminer.cn/
Código QR de columna
Teoría de la visualización de la máquina de aprendizaje interpretabilidad Liu Shixia

Supongo que te gusta

Origin www.cnblogs.com/cx2016/p/12689613.html
Recomendado
Clasificación