Многовариантное прогнозирование нагрузки LSTM на основе механизма самоконтроля

1. Введение 

       На основе использования сети долговременной кратковременной памяти для построения модели прогнозирования электрической нагрузки в модель прогнозирования нагрузки интегрирован механизм самоконтроля (Self-Attention). Конкретное содержание состоит в том, чтобы соединить слой самообслуживания после слоя LSTM.После добавления самообслуживания данные о нагрузке можно обрабатывать путем взвешенного суммирования, а вес внимания можно добавить к функции нагрузки, чтобы выделить фактор воздействия Загрузка. Результаты показывают, что с помощью механизма самоконтроля характеристики и информация о правилах изменения данных об электрической нагрузке могут быть лучше изучены, а производительность модели прогнозирования может быть улучшена.

        Среда: python3.8, тензорный поток2.5.

2. Принцип

2.1. Механизм внутреннего внимания

В интернете есть много выводов механизма само-внимания, поэтому я не буду их повторять здесь, вы можете прочитать блог         , если вам это нужно , этот блог очень хорош.

2.2 Структура модели

В основном он включает в себя входной уровень, уровень LSTM, уровень кодирования положения, уровень механизма самоконтроля и выходной уровень.

3. Настоящий бой

3.1 Структура данных

        Используя данные прогноза нагрузки Кубка электриков 2016 года, выборку каждые 15 минут, всего 96 значений нагрузки и 5 метеорологических данных (температура, влажность, осадки и т. д.) в день. Мы используем скользящее моделирование прогнозирования, которое заключается в использовании всех значений от 1 до n дней в качестве входных данных, и 96 значений нагрузки на n + 1-й день, затем все значения Вводятся от 2 до n + 1 дней, и n + 2 дня. Выводятся 96 значений нагрузки, так что выполняется моделирование последовательности прокатки. Это n — временной шаг, и программа установлена ​​на 20, поэтому вы можете видеть, что входной слой выше — Nonex20x101, а выходной — Nonex96.

3.2 Прогнозирование моделирования

# coding: utf-8
from sklearn.preprocessing import StandardScaler,MinMaxScaler
from sklearn.metrics import r2_score
import pandas as pd
import numpy as np
import os
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif']=['SimHei']
plt.rcParams['axes.unicode_minus'] = False
from tensorflow.keras.models import Model
from tensorflow.keras.layers import Input,Dense,LSTM
import tensorflow as tf
from Layers import SelfAttention,AddSinusoidalPositionalEncodings
os.environ["PATH"] += os.pathsep + 'C:/Program Files (x86)/Graphviz2.38/bin/'
from tensorflow.keras.utils import plot_model

# In[]定义一些需要的函数

def build_model(seq,fea,out):
    input_ = Input(shape=(seq,fea))
    x=LSTM(20, return_sequences=True)(input_)    
    pos = AddSinusoidalPositionalEncodings()(x)
    att = SelfAttention(100,100,return_sequence=False, dropout=.0)(pos)
    
    out = Dense(out, activation=None)(att)
    model = Model(inputs=input_, outputs=out)
    return model


def split_data(data, n):
    in_ = []
    out_ = []    
    N = data.shape[0] - n
    for i in range(N):
        in_.append(data[i:i + n,:])
        out_.append(data[i + n,:96])
    in_ = np.array(in_).reshape(len(in_), -1)
    out_ = np.array(out_).reshape(len(out_), -1)
    return in_, out_
def result(real,pred,name):
    # ss_X = MinMaxScaler(feature_range=(-1, 1))
    # real = ss_X.fit_transform(real).reshape(-1,)
    # pred = ss_X.transform(pred).reshape(-1,)
    real=real.reshape(-1,)
    pred=pred.reshape(-1,)
    # mape
    test_mape = np.mean(np.abs((pred - real) / real))
    # rmse
    test_rmse = np.sqrt(np.mean(np.square(pred - real)))
    # mae
    test_mae = np.mean(np.abs(pred - real))
    # R2
    test_r2 = r2_score(real, pred)

    print(name,'的mape:%.4f,rmse:%.4f,mae:%.4f,R2:%.4f'%(test_mape ,test_rmse, test_mae, test_r2))

# In[]
df=pd.read_csv('数据集/data196.csv').fillna(0).iloc[:,1:]
data=df.values
time_steps=20
in_,out_=split_data(data,time_steps)

n=range(in_.shape[0])
#m=int(0.8*in_.shape[0])#前80%训练 后20%测试
m=-2#最后两天测试
train_data = in_[n[0:m],]
test_data = in_[n[m:],]
train_label = out_[n[0:m],]
test_label = out_[n[m:],]

# 归一化
ss_X = StandardScaler().fit(train_data)
ss_Y = StandardScaler().fit(train_label)
# ss_X = MinMaxScaler(feature_range=(0, 1)).fit(train_data)
# ss_Y = MinMaxScaler(feature_range=(0, 1)).fit(train_label)
train_data = ss_X.transform(train_data).reshape(train_data.shape[0], time_steps, -1)
train_label = ss_Y.transform(train_label)

test_data = ss_X.transform(test_data).reshape(test_data.shape[0], time_steps, -1)
test_label = ss_Y.transform(test_label)
# In[]
model=build_model(train_data.shape[-2],train_data.shape[-1],train_label.shape[-1])
#查看网络结构
model.summary()
plot_model(model, show_shapes=True, to_file='result/lstmsa_model.jpg')

train_again=True  #为 False 的时候就直接加载训练好的模型进行测试
#训练模型
if train_again:
    #编译模型
    model.compile(optimizer=tf.keras.optimizers.Adam(learning_rate=0.001), loss='mse')
    #训练模型
    history=model.fit(train_data,train_label,batch_size=64,epochs=100,
                      verbose=1,validation_data=(test_data,test_label))
    # In[8]
    model.save_weights('result/lstmsa_model.h5')
    loss = history.history['loss']
    val_loss = history.history['val_loss']
    plt.plot( loss, label='Train Loss')
    plt.plot( val_loss, label='Test Loss')
    plt.title('Train and Val Loss')
    plt.legend()
    plt.savefig('result/lstmsa_model_loss.jpg')
    plt.show()
else:#加载模型
    model.load_weights('result/lstmsa_model.h5')

# In[]
test_pred = model.predict(test_data)

# 对测试集的预测结果进行反归一化
test_label1 = ss_Y.inverse_transform(test_label)
test_pred1 = ss_Y.inverse_transform(test_pred)
# In[]计算各种指标
result(test_label1,test_pred1,'LSTM-SA')
np.savez('result/lstmsa1.npz',real=test_label1,pred=test_pred1)

test_label=test_label1.reshape(-1,)
test_pred=test_pred1.reshape(-1,)
# plot test_set result
plt.figure()
plt.plot(test_label, c='r', label='real')
plt.plot(test_pred, c='b', label='pred')
plt.legend()
plt.xlabel('样本点')
plt.ylabel('功率')
plt.title('测试集')
plt.show()

 3.2 Сравнение результатов

        Сравнивая это с RNN и LSTM, результаты следующие

Тестовый набор взят за последние два дня, по результатам видно, что предложенный метод работает лучше всего 

4. Код

        Подробный код см. в разделе комментариев.

Supongo que te gusta

Origin blog.csdn.net/qq_41043389/article/details/128510691
Recomendado
Clasificación