Universidad de Zhejiang _ _ paquete de soporte casero red neuronal biología computacional

Una red neuronal de tres capas comprende típicamente
una capa de entrada,
capa oculta
capa de salida
de datos de cada entrada de un peso multiplicado con los pesos correspondientes a obtener el nuevo valor en la capa oculta, una capa oculta y luego la correspondiente conversión de datos (conversión es decir, después de la función de activación) si los nuevos datos obtenidos alcanza una función de activación de umbral, también conocido como una salida de los resultados a la siguiente etapa.

Aquí Insertar imagen Descripción

un (i) es la función de activación
o (i) es una función de valor umbral

Tres elementos de red neuronal
estructura topológica de
una estructura jerárquica
Aquí Insertar imagen Descripción
de la arquitectura de Internet
Aquí Insertar imagen Descripción

2. Características de neuronas
que es la relación entre la función de la correspondencia entre O (i) y netiAquí Insertar imagen Descripción
Aquí Insertar imagen Descripción

función sigmoidea, que está relacionada con el valor de k, cuando k es infinito, toda la región tiende Brother Yu función continua [0,1] Función Aquí Insertar imagen Descripción
3. Algoritmo de Aprendizaje

algoritmo de propagación inversa de error
Aquí Insertar imagen Descripción

Aquí Insertar imagen Descripción
Aquí Insertar imagen Descripción
Xj de entrada capa de salida aquí es el valor de salida de la capa oculta

Está presente entre los valores de salida resultantes del valor de salida real del error constante
caso requiere la presencia de función de riesgo, los valores de los parámetros correspondientes de pesos, es decir, la entrada y salida de la capa oculta se ajusta,
Aquí Insertar imagen Descripción
ajuste final obtenida buenos parámetros, de modo que la entrada tendrá una capa de entrada, un error entre los resultados predichos y los resultados mínimo real, entonces w es valores de los parámetros óptimos

Para la función de riesgo Delta W corrección, el método de descenso de gradiente se utiliza principalmente para corregir
el tiempo durante la corrección, el primer parámetro para ajustar la capa de salida y, a continuación, ajustar los parámetros de la capa oculta.
Incrementar con un método de descenso de gradiente
E es una función discriminante
w-kj de la capa de salida es un parámetro Aquí Insertar imagen Descripción
η constante, por lo general se puede simplificar en 1Aquí Insertar imagen Descripción

Aquí Insertar imagen Descripción

Aquí Insertar imagen Descripción

capa oculta incremental

Aquí Insertar imagen Descripción

Aquí Insertar imagen Descripción

Aquí Insertar imagen Descripción

proceso de construcción de redes neuronales

Aquí Insertar imagen Descripción

Publicado 35 artículos originales · ganado elogios 6 · vistas 5246

Supongo que te gusta

Origin blog.csdn.net/leianuo123/article/details/104813116
Recomendado
Clasificación