Comprensión popular de la red neuronal convolucional: introducción al aprendizaje profundo de la inteligencia artificial

Guía: hay caminos en las montañas de los libros, el trabajo duro es el camino y no hay límite para el mar del aprendizaje.

  • IA: hacer que las máquinas muestren inteligencia humana

  • Aprendizaje automático: un camino hacia los objetivos de IA

  • Aprendizaje profundo: tecnologías que permiten el aprendizaje automático

Si necesita materiales de aprendizaje de redes neuronales convolucionales, también puede agregar WeChat

 Convolutional Neural Networks (CNN) es un tipo de Feedforward Neural Networks (Redes Neuronales Feedforward) que incluye cálculos de convolución y tiene una estructura profunda, es uno de los algoritmos representativos para el aprendizaje profundo. La red neuronal convolucional tiene la capacidad de aprendizaje de representación y puede realizar una clasificación invariable por desplazamiento en la información de entrada de acuerdo con su estructura jerárquica, por lo que también se denomina "red neuronal artificial invariante por desplazamiento". Neural Networks, SIANN)".

La red neuronal convolucional ( CNN ) es una red neuronal de retroalimentación Sus neuronas artificiales pueden responder a las unidades circundantes dentro de una parte del área de cobertura y tiene un excelente rendimiento para el procesamiento de imágenes a gran escala. Incluye capas convolucionales y capas de agrupación.

estructura

capa de entrada

La capa de entrada de una red neuronal convolucional puede procesar datos multidimensionales. Por lo general, la capa de entrada de una red neuronal convolucional unidimensional recibe una matriz unidimensional o bidimensional, donde una matriz unidimensional suele ser una muestra de tiempo o espectral. ; una matriz bidimensional puede contener varios canales; la capa de entrada de una red neuronal convolucional 2D recibe una matriz 2D o 3D; la capa de entrada de una red neuronal convolucional 3D recibe una matriz 4D. Dado que las redes neuronales convolucionales son ampliamente utilizadas en el campo de la visión artificial, muchos estudios presuponen datos de entrada tridimensionales al introducir su estructura, es decir, píxeles bidimensionales y canales RGB en un plano.

Al igual que otros algoritmos de redes neuronales, las características de entrada de las redes neuronales convolucionales deben normalizarse debido al uso del descenso de gradiente para el aprendizaje. Específicamente, antes de ingresar los datos de aprendizaje en la red neuronal convolucional, los datos de entrada deben normalizarse en el canal o en la dimensión de tiempo/frecuencia.Si los datos de entrada son píxeles, también se pueden distribuir en

Los valores de píxeles sin procesar de están normalizados a

 intervalo. La estandarización de las características de entrada es beneficiosa para mejorar la eficiencia operativa y el rendimiento de aprendizaje del algoritmo.

capa oculta

La capa oculta de la red neuronal convolucional incluye tres estructuras comunes: la capa convolucional, la capa de agrupación y la capa totalmente conectada. En algunos algoritmos más modernos, puede haber estructuras complejas como módulos Inception y bloques residuales. Entre las arquitecturas comunes, las capas convolucionales y de agrupación son exclusivas de las redes neuronales convolucionales. El kernel de convolución en la capa convolucional contiene coeficientes de ponderación, pero la capa de agrupación no contiene coeficientes de ponderación, por lo que en la literatura, la capa de agrupación puede no considerarse como una capa independiente. Tomando LeNet-5 como ejemplo, el orden de las tres estructuras comunes en la capa oculta suele ser: entrada-capa de convolución-capa de agrupación-capa de convolución-capa de agrupación-capa de conexión completa-salida.

capa convolucional 

1. Núcleo convolucional

La función de la capa convolucional es extraer características de los datos de entrada. Contiene múltiples núcleos convolucionales. Cada elemento del núcleo convolucional corresponde a un coeficiente de peso y un vector de sesgo, similar a una red neuronal de avance. Las neuronas de la red ( neuronas). Cada neurona en la capa convolucional está conectada a múltiples neuronas en el área cercana a la capa anterior. El tamaño del área depende del tamaño del núcleo de convolución, que en la literatura se denomina "campo receptivo", su significado puede ser en comparación con el campo receptivo de las células de la corteza visual. Cuando el kernel de convolución está funcionando, escaneará regularmente las características de entrada, realizará la multiplicación y suma de elementos de matriz en las características de entrada en el campo receptivo y superpondrá la desviación:

La parte de la suma en la fórmula es equivalente a resolver una correlación cruzada. b es la cantidad de sesgo, y

indica la primera

La entrada y salida convolucional de la capa, también conocida como mapa de características (feature map), tiene el tamaño de , aquí se supone que el mapa de características tiene el mismo largo y ancho. Correspondiente a los píxeles del mapa de características, K es el número de canales del mapa de características, que es el parámetro de la capa de convolución, correspondiente al tamaño del núcleo de convolución, el tamaño del paso de convolución (zancada) y el número de relleno capas.

La fórmula anterior utiliza un núcleo de convolución bidimensional como ejemplo, y un núcleo de convolución unidimensional o tridimensional funciona de manera similar. Teóricamente, el kernel de convolución también se puede voltear 180 grados primero y luego resolver la correlación cruzada. El resultado es equivalente a una convolución lineal que satisface la ley conmutativa, pero esto no facilita los parámetros de solución mientras aumenta los pasos de solución. , por lo que el kernel de convolución lineal usa correlación cruzada en lugar de convolución.

En particular, cuando el kernel de convolución es de tamaño , el paso

 Y cuando no se incluye el kernel de convolución unitaria, el cálculo de la correlación cruzada en la capa convolucional es equivalente a la multiplicación de matrices y, por lo tanto, se construye una red completamente conectada entre las capas convolucionales:

 

Una capa convolucional que consta de núcleos convolucionales unitarios también se denomina red en red (NIN) o capa de convolución de perceptrón multicapa (mlpconv). El kernel de convolución de unidades puede reducir la cantidad de canales del mapa mientras mantiene el tamaño del mapa de características, lo que reduce la carga computacional de la capa convolucional. Una red neuronal convolucional construida completamente con núcleos de convolución de unidades es un perceptrón multicapa (Multi-Layer Perceptron, MLP) que incluye el intercambio de parámetros.

Con base en la convolución lineal, algunas redes neuronales convolucionales utilizan convoluciones más complejas, incluidas la convolución en mosaico, la deconvolución y la convolución dilatada. El núcleo de convolución de la convolución en mosaico solo barre una parte del mapa de características, y el resto es procesado por otros núcleos de convolución de la misma capa, por lo que los parámetros entre las capas de convolución solo se comparten parcialmente, lo que es beneficioso para que la red neuronal capture el imagen de entrada Funciones invariantes de rotación (invariante por desplazamiento). La deconvolución o convolución transpuesta concatena un solo estímulo de entrada con múltiples estímulos de salida para amplificar la imagen de entrada. Las redes neuronales convolucionales compuestas por capas de deconvolución y up-pooling tienen aplicaciones importantes en el campo de la segmentación semántica de imágenes (segmentación semántica), y también se utilizan para construir autocodificadores convolucionales (Convolutional AutoEncoder, CAE). La convolución de expansión introduce la tasa de expansión sobre la base de la convolución lineal para aumentar el campo receptivo del núcleo de convolución, a fin de obtener más información del mapa de características, lo que conduce a capturar la dependencia a larga distancia (largo alcance) de los objetivos de aprendizaje cuando se usa para datos de secuencia. dependencia). Las redes neuronales convolucionales que utilizan convoluciones dilatadas se utilizan principalmente en el campo del procesamiento del lenguaje natural (NLP), como la traducción automática y el reconocimiento de voz.

2. Parámetros de la capa de convolución

Los parámetros de la capa convolucional incluyen el tamaño del kernel convolucional, el tamaño del paso y el relleno. Los tres juntos determinan el tamaño del mapa de características de salida de la capa convolucional, que es el hiperparámetro de la red neuronal convolucional. El tamaño del kernel de convolución se puede especificar como cualquier valor más pequeño que el tamaño de la imagen de entrada. Cuanto más grande sea el kernel de convolución, más complejas serán las características de entrada que se pueden extraer.

El paso de convolución define la distancia entre las posiciones del kernel de convolución cuando escanea el mapa de características dos veces consecutivas. Cuando el paso de convolución es 1, el kernel de convolución barrerá los elementos del mapa de características uno por uno. Cuando el paso es n, será en el próximo El escaneo salta n-1 píxeles.

A partir del cálculo de correlación cruzada del kernel de convolución, se puede ver que a medida que se apila la capa de convolución, el tamaño del mapa de características disminuirá gradualmente. Después de eso, se generará un mapa de características de 12 × 12. Con este fin, el relleno es un método para aumentar artificialmente el tamaño de los mapas de características antes de que pasen por los núcleos de convolución para contrarrestar el efecto de la reducción del tamaño en el cálculo. Los métodos comunes de relleno son relleno por 0 y relleno con valores límite repetidos (relleno de replicación). El relleno se puede dividir en cuatro categorías según su número de capas y propósito:

  • Relleno válido: es decir, no se utiliza ningún relleno y el kernel de convolución solo permite el acceso a la posición en el mapa de características que contiene el campo receptivo completo. Todos los píxeles de la salida son una función del mismo número de píxeles en la entrada. Una convolución que utiliza un relleno eficiente se denomina "convolución estrecha" y el mapa de características resultante de la convolución estrecha tiene un tamaño (Lf)/s+1.
  • Relleno igual/medio: solo se realiza el relleno suficiente para mantener los mapas de características de entrada y salida del mismo tamaño. El tamaño del mapa de características bajo el mismo relleno no se reducirá, pero la parte de los píxeles de entrada cerca del límite tiene menos influencia en el mapa de características que la parte central, es decir, hay una subexpresión de los píxeles del límite. Las circunvoluciones que usan el mismo relleno se denominan "circunvoluciones de igual ancho".
  • Relleno completo: haga suficiente relleno para que cada píxel se visite la misma cantidad de veces en cada dirección. Cuando el tamaño del paso es 1, el tamaño del mapa de características de la salida completamente llena es L+f-1, que es mayor que el valor de entrada. Las circunvoluciones que usan relleno completo se denominan "circunvoluciones anchas"
  • Relleno arbitrario: entre el relleno efectivo y el relleno completo, relleno fijado artificialmente, raramente utilizado.

Volviendo al ejemplo anterior, si la imagen de entrada de 16×16 se rellena de la misma manera antes de pasar por el núcleo de convolución de 5×5 con un tamaño de paso unitario, se rellenarán dos capas en las direcciones horizontal y vertical, es decir, dos se agregarán capas en cada lado píxeles (

) se convierte en una imagen de tamaño 20×20, después de pasar por el kernel de convolución, el tamaño del mapa de características de salida es de 16×16, manteniendo el tamaño original.

3. Función de activación

La función de activación se incluye en la capa convolucional para ayudar a expresar características complejas y su representación es la siguiente:

Al igual que otros algoritmos de aprendizaje profundo, las redes neuronales convolucionales suelen utilizar una función de rectificación lineal (Unidad lineal rectificada, ReLU).Otras variantes similares a ReLU incluyen ReLU inclinado (Leaky ReLU, LReLU), ReLU parametrizado (Parametric ReLU, PReLU), ReLU aleatorizado (ReLU aleatoria, RReLU), unidad lineal exponencial (Unidad lineal exponencial, ELU), etc. Antes de la llegada de ReLU, también se usaban la función sigmoidea y la función tangente hiperbólica (tangente hiperbólica).

La operación de la función de activación suele ser posterior al kernel de convolución, y algunos algoritmos que utilizan técnicas de preactivación colocan la función de activación antes del kernel de convolución. En algunas de las primeras investigaciones de redes neuronales convolucionales, como LeNet-5, la función de activación viene después de la capa de agrupación.

 capa de agrupación

Después de la extracción de características en la capa convolucional, el mapa de características de salida se pasa a la capa de agrupación para la selección de características y el filtrado de información. La capa de agrupación contiene una función de agrupación preestablecida, cuya función es reemplazar el resultado de un único punto en el mapa de características con las estadísticas del mapa de características de sus regiones adyacentes. La capa de agrupación selecciona el área de agrupación en los mismos pasos que el mapa de características de escaneo del kernel de convolución, controlado por el tamaño de agrupación, el tamaño de paso y el relleno.

1. Agrupación (agrupación Lp)

Pooling es un tipo de modelo de pooling inspirado en la estructura jerárquica de la corteza visual, y su representación general es: 

Numero de pie  

 píxel

 El significado de la capa convolucional es el mismo y P es un parámetro preespecificado. Cuando P=1, la agrupación toma el valor promedio en el área de agrupación, que se denomina agrupación promedio; en ese momento , la agrupación toma el valor máximo en el área, que se denomina agrupación máxima (max pooling). La agrupación media y la agrupación máxima son los métodos de agrupación más comunes, los cuales conservan la información de fondo y textura de la imagen a expensas del tamaño del mapa de características. Además, cuando P=2, la agrupación también se utiliza en algunos trabajos.

2. Agrupación aleatoria/híbrida 

La agrupación mixta y la agrupación estocástica son extensiones del concepto de agrupación L. La agrupación aleatoria seleccionará aleatoriamente un valor de acuerdo con una distribución de probabilidad específica en su área de agrupación para garantizar que algunas señales de excitación no máximas puedan ingresar a la siguiente construcción. La agrupación híbrida se puede expresar como una combinación lineal de agrupación media y agrupación máxima:

 Los estudios han demostrado que la agrupación híbrida y la agrupación aleatoria son beneficiosas para evitar el sobreajuste de las redes neuronales convolucionales y tienen un mejor rendimiento que la agrupación media y máxima.

3. Agrupación espectral

La agrupación espectral es un método de agrupación basado en FFT que se puede utilizar junto con la convolución FFT para construir una red neuronal convolucional basada en FFT. Cuando se proporciona el tamaño del mapa de características y el tamaño de salida de la capa de agrupación , la agrupación espectral realiza la transformación DFT en cada canal del mapa de características, intercepta desde el centro del espectro y realiza la transformación inversa DFT en la secuencia de el tamaño para obtener el resultado de la agrupación. La agrupación espectral tiene una función de filtrado, que puede preservar la información de cambio de baja frecuencia en la mayor medida posible y puede controlar de manera efectiva el tamaño del mapa de características. Además, según el algoritmo FFT maduro, la agrupación espectral se puede realizar con una pequeña cantidad de cálculo.

Módulo de inicio (Módulo de inicio)

 El módulo Inception es una construcción de capa oculta especial que se obtiene apilando múltiples capas convolucionales y agrupando capas. Específicamente, un módulo de Inception contendrá varios tipos diferentes de operaciones de agrupación y convolución al mismo tiempo, y usará el mismo relleno para hacer que las operaciones anteriores obtengan mapas de características del mismo tamaño y luego superponga los canales de estos mapas de características en la matriz. y pasar la función de incentivo. Dado que el método anterior introduce múltiples cálculos de convolución en una construcción, la cantidad de cálculo aumentará significativamente. Por lo tanto, para simplificar la cantidad de cálculo, el módulo Inception generalmente diseña una capa de cuello de botella. Primero, se usa el kernel de convolución unitaria, es decir, la estructura NIN reduce el mapa de características, el número de canales y luego realiza otras operaciones de convolución. El módulo Inception se aplicó por primera vez a GoogLeNet y logró un éxito notable, y también inspiró la idea de la convolución separable en profundidad en el algoritmo Xception.

capa totalmente conectada

La capa totalmente conectada en la red neuronal convolucional es equivalente a la capa oculta en la red neuronal feedforward tradicional. La capa completamente conectada generalmente se construye en la última parte de la capa oculta de la red neuronal convolucional y solo transmite señales a otras capas completamente conectadas. El mapa de características pierde su estructura 3D en la capa completamente conectada, se expande en un vector y pasa a la siguiente capa a través de la función de activación.

En algunas redes neuronales convolucionales, la función de la capa totalmente conectada se puede reemplazar parcialmente por la agrupación promedio global (global Average Pooling), que promedia todos los valores de cada canal del mapa de características, es decir, si hay un mapa de características , la agrupación media global devolverá un vector de 256 donde cada elemento es una agrupación media con paso 7 y sin relleno.

capa de salida

La parte superior de la capa de salida en una red neuronal convolucional suele ser una capa completamente conectada, por lo que su estructura y principio de funcionamiento son los mismos que los de la capa de salida en una red neuronal feedforward tradicional. Para problemas de clasificación de imágenes, la capa de salida utiliza una función logística o una función exponencial normalizada (función softmax) para generar etiquetas de clasificación. En el problema de detección de objetos, la capa de salida se puede diseñar para generar las coordenadas centrales, el tamaño y la clasificación del objeto. En la segmentación semántica de imágenes, la capa de salida genera directamente el resultado de la clasificación de cada píxel. 

 naturaleza

conectividad

La conexión entre las capas convolucionales en la red neuronal convolucional se denomina conexión dispersa (sparse connection), es decir, en comparación con la conexión completa en la red neuronal feedforward, las neuronas en la capa convolucional son solo una parte de la capa adyacente, mientras que No todas las neuronas están conectadas. Específicamente, cualquier píxel (neurona) en el mapa de características de la capa l de la red neuronal convolucional es solo una combinación lineal de píxeles en el campo receptivo definido por el núcleo de convolución en la capa l-1. La escasa conexión de la red neuronal convolucional tiene un efecto de regularización, lo que mejora la estabilidad y la capacidad de generalización de la estructura de la red y evita el sobreajuste Al mismo tiempo, la escasa conexión reduce la cantidad total de parámetros de peso, lo que conduce a la rápida aprendizaje de la red neuronal y reducir la sobrecarga de memoria cuando se computa.

Todos los píxeles en el mismo canal del mapa de características en la red neuronal convolucional comparten un conjunto de coeficientes de peso del kernel de convolución, lo que se denomina peso compartido. El peso compartido distingue las redes neuronales convolucionales de otras redes neuronales que contienen estructuras conectadas localmente, que utilizan conexiones dispersas pero tienen diferentes pesos para diferentes conexiones. El peso compartido, como las conexiones dispersas, reduce el número total de parámetros en las redes neuronales convolucionales y tiene un efecto de regularización.

Desde la perspectiva de una red totalmente conectada, la conexión dispersa y el peso compartido de la red neuronal convolucional pueden considerarse como dos priores (pirior) infinitamente fuertes, es decir, todos los coeficientes de peso de una neurona de capa oculta fuera de su campo receptivo son constantes. (pero el campo receptivo puede moverse en el espacio); y en un canal, los coeficientes de peso de todas las neuronas son los mismos.

 Figurativo

Reconstrucción de características de la red neuronal convolucional basada en deconvolución y agrupación ascendente 

Como algoritmo representativo del aprendizaje profundo, la red neuronal convolucional tiene capacidad de aprendizaje de representación, es decir, puede extraer características de alto orden de la información de entrada. Específicamente, la capa convolucional y la capa de agrupación en la red neuronal convolucional pueden responder a la invariancia de traducción de las características de entrada, es decir, pueden identificar características similares ubicadas en diferentes posiciones en el espacio. La capacidad de extraer características invariantes de traducción es una de las razones por las que las redes neuronales convolucionales se utilizan en problemas de visión por computadora.

La transmisión de características invariantes a la traducción en redes neuronales convolucionales tiene reglas generales. En los problemas de procesamiento de imágenes, el mapa de características en la parte frontal de la red neuronal convolucional generalmente extrae características representativas de alta y baja frecuencia en la imagen; el mapa de características agrupado posterior mostrará las características de borde (artefactos de alias) de la imagen de entrada; Cuando la señal entre en una capa oculta más profunda, se extraerán sus características más generales y completas. La desconvolución y la desagrupación pueden visualizar características de capas ocultas de redes neuronales convolucionales. En una red neuronal convolucional exitosa, los mapas de características pasados ​​a las capas completamente conectadas contendrán las mismas características que el objetivo de aprendizaje, como la imagen completa de cada clase en la clasificación de imágenes.

similitud biológica

La escasa conexión basada en la configuración del campo receptivo en la red neuronal convolucional tiene un claro proceso de neurociencia correspondiente: la organización del espacio visual por parte de la corteza visual en el sistema nervioso visual. Las células de la corteza visual reciben señales de los fotorreceptores en la retina, pero las células individuales de la corteza visual no reciben todas las señales de los fotorreceptores, sino solo aquellas dentro del área de estímulo que inervan, el campo receptivo. Solo los estímulos en el campo receptivo pueden activar esta neurona. Múltiples células de la corteza visual reciben las señales transmitidas por la retina y establecen el espacio visual superponiendo sistemáticamente los campos receptivos. De hecho, el término "campo receptivo" en el aprendizaje automático proviene de su correspondiente investigación biológica. La naturaleza del peso compartido en las redes neuronales convolucionales no tiene evidencia clara en biología, pero en el estudio de los mecanismos de propagación de destino (TP) y alineación de retroalimentación (FA) estrechamente relacionados con el aprendizaje cerebral, el peso compartido mejora el efecto de aprendizaje.

solicitud

Visión artificial (pequeño editor)

Reconocimiento de imágenes (clasificación de imágenes) 

reconocimiento de objetos

Reconocimiento de acciones

estimacion de poses

transferencia de estilo neural

procesamiento natural del lenguaje

 En general, debido a la limitación del tamaño de la ventana o kernel de convolución, la dependencia a larga distancia y las características gramaticales estructuradas de los datos del lenguaje natural no se pueden aprender bien.La red neuronal convolucional en el procesamiento del lenguaje natural (Natural Language Processing, NLP) Hay menos aplicaciones que las redes neuronales recurrentes, y en muchos problemas se diseñarán en el marco de las redes neuronales recurrentes, pero también hay algunos algoritmos de redes neuronales convolucionales que han tenido éxito en múltiples temas de PNL.

En el campo del procesamiento del habla, las redes neuronales convolucionales han demostrado superar el modelo oculto de Markov (HMM), el modelo de mezcla gaussiana (GMM) y otros algoritmos profundos. Algunos estudios utilizan un modelo híbrido de red neuronal convolucional y HMM para el procesamiento del habla. El modelo utiliza un núcleo de convolución pequeño y reemplaza la capa de agrupación con una capa totalmente conectada para mejorar su capacidad de aprendizaje. Las redes neuronales convolucionales también se pueden usar para la síntesis de voz y el modelado del lenguaje. Por ejemplo, WaveNet usa el modelo de generación construido por la red neuronal convolucional para generar la probabilidad condicional del habla y muestrea el habla sintetizada. La combinación de la red neuronal convolucional y el modelo de memoria a corto plazo (modelo de memoria a corto plazo, LSTM) puede completar la oración de entrada. Otro trabajo relacionado incluye genCNN, ByteNet, etc.

otro

física

 

ciencia de la teledetección

Las redes neuronales convolucionales se utilizan ampliamente en la ciencia de la teledetección, especialmente en la teledetección por satélite. Al analizar las características geométricas, de textura y de distribución espacial de las imágenes de teledetección, las redes neuronales convolucionales tienen ventajas obvias en términos de eficiencia computacional y precisión de clasificación. De acuerdo con la fuente y el propósito de las imágenes de teledetección, las redes neuronales convolucionales se utilizan para el estudio del uso de la superficie subyacente y el cambio de tipo (cambio de uso de la tierra/cobertura terrestre) y la inversión de la teledetección de cantidades físicas como la concentración de hielo marino. Además, las redes neuronales convolucionales se usan ampliamente en el reconocimiento de objetos y la segmentación semántica de imágenes de sensores remotos.Los dos últimos son problemas directos de visión por computadora y no se repetirán aquí.

Ciencia Atmosférica

Contiene módulos de programación para Redes Neuronales Convolucionales

Las modernas bibliotecas e interfaces de aprendizaje automático convencionales, incluidas TensorFlow, Keras, Thenao, Microsoft-CNTK, etc., pueden ejecutar algoritmos de redes neuronales convolucionales. Además, algunos software comerciales de computación numérica, como MATLAB, también tienen disponibles herramientas de construcción de redes neuronales convolucionales.


 por fin

Aquellos que necesitan materiales de aprendizaje de redes neuronales convolucionales y documentos de aprendizaje profundo pueden agregar mi asistente WeChat

El editor ha clasificado todo tipo de materiales de aprendizaje de inteligencia artificial en Internet, un total de 500G, puede agregar más si es necesario

 ❶ Los cursos y proyectos de inteligencia artificial (incluido el código fuente de los cursos) se pueden escribir en el currículum de la práctica del proyecto a nivel empresarial.

❷ Libros de lectura obligada de alta calidad sobre inteligencia artificial (libros de flores "Biblia", etc.) + colección de artículos sobre inteligencia artificial

❸ Tutoriales y materiales zi de apoyo de maestros nacionales y extranjeros conocidos (Diosa Li Feifei, Wu Enda, Li Mu)

❹ Explicación súper detallada de la ruta de aprendizaje de inteligencia artificial + materiales zi de aprendizaje del sistema

❺ Disposición del sitio web de recursos de inteligencia artificial de alta calidad, informe de la industria de inteligencia artificial

Si es útil para todos, recuerden darle me gusta y recopilar ~ Los amo ~ 

Supongo que te gusta

Origin blog.csdn.net/Java_college/article/details/122045361
Recomendado
Clasificación