Aprendizaje profundo (python): código de función de activación de la red neuronal (redes neuronales artificiales)

Tabla de contenido

1. Información general

2. Función de activación

(1) Conceptos básicos

 (2) función sigmoidea (de uso común)

 código (sigmoide)

 (3) función de paso

 código (función de paso)

(4) Función ReLU (actualmente de uso común)

 Código (función ReLU)


1. Información general

        En el perceptrón, el peso w se ingresa manualmente y la red neuronal puede aprender automáticamente los parámetros de peso apropiados a partir de los datos. Se puede entender que la red neuronal toma las características de los datos de los datos para obtener pesos y finalmente utiliza los pesos para identificar datos desconocidos.

El diagrama de la estructura de la red neuronal es el siguiente:

 La imagen de arriba muestra una red neuronal de 3 capas, que es la estructura de red neuronal más simple, en la que la capa intermedia a veces se denomina "capa oculta". Similar al perceptrón, en la red neuronal, ingresamos muestras de datos como la señal de entrada, y luego obtenemos el peso a través del cálculo de características de los datos obtenidos en la capa oculta, y finalmente obtenemos el resultado de salida requerido en la capa de salida.

2. Función de activación

(1) Conceptos básicos

Primero, veamos la fórmula del perceptrón:

Simplifique la fórmula del perceptrón para   y=h(b+an 1x1+a2x2)

donde h(x):

De esto puedes obtener 

a=b+w1x1+w2x2

y=h(a)

donde h(a) es la función de activación. Su estructura es la siguiente:

 (2) función sigmoidea (de uso común)

oficial:

 donde exp(-x) representa el cuadrado -x de e. (No es necesario recordar esta fórmula, es solo un método de cálculo)

Código (sigmoide):

def sigmoid(x):
    return 1 / (1 + np.exp(-x))

 (3) función de paso

Tanto la función escalonada como la función sigmoidea son funciones no lineales, pero a diferencia de sigmoidea, la función sigmoidea es una curva suave, mientras que la función escalonada es una curva bruscamente descendente o ascendente.

Las curvas de función se comparan de la siguiente manera:

 código (función de paso)

def step_function(x):
    y = x > 0
    return y.astype(np.int)

(4) Función ReLU (actualmente de uso común)

En la actualidad, la función ReLU es muy utilizada, y su fórmula es la siguiente:

Código (función ReLU):

def relu(x):
    return np.maximum(0, x)

Supongo que te gusta

Origin blog.csdn.net/weixin_52135595/article/details/127516017
Recomendado
Clasificación