3-1长短时记忆神经网络(LSTM)--简单代码实现

点击查看完整代码http://www.daimapi.com/neuralnetwork3_1/


LSTM(Long Short-Term Memory)是长短期记忆网络,是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。LSTM 已经在科技领域有了多种应用。基于LSTM的系统可以学习翻译语言、控制机器人、图像分析、文档摘要、语音识别图像识别、手写识别、控制聊天机器人、预测疾病、点击率和股票、合成音乐等等任务。

该代码不使用任何第三方深度学习工具包实现,利用Python3实现。

# -*- coding: utf-8 -*-
import copy, numpy as np
np.random.seed(0)

# 计算sigmoid函数的值
def sigmoid(x):
    output = 1/(1+np.exp(-x))
    return output

# 利用sigmoid函数计算误差
def sigmoid_output_to_derivative(output):
    return output*(1-output)

# 训练数据集并进行迭代
int2binary = {}
binary_dim = 8

largest_number = pow(2,binary_dim)
binary = np.unpackbits(np.array([range(largest_number)],dtype=np.uint8).T,axis=1)
for i in range(largest_number):
    int2binary[i] = binary[i]

# 设置LSTM的参数
alpha = 0.1
input_dim = 2
hidden_dim = 16
output_dim = 1

# 初始化神经网络的权重
synapse_0 = 2*np.random.random((input_dim,hidden_dim)) - 1
synapse_1 = 2*np.random.random((hidden_dim,output_dim)) - 1
synapse_h = 2*np.random.random((hidden_dim,hidden_dim)) - 1

synapse_0_update = np.zeros_like(synapse_0)
synapse_1_update = np.zeros_like(synapse_1)
synapse_h_update = np.zeros_like(synapse_h)

# 进行训练
for j in range(10000):

猜你喜欢

转载自blog.csdn.net/aeoob/article/details/81050808