基于长短期记忆网络算法LSTM的时间序列预测 单输入单输出预测 代码含详细注释,不负责 数据存入Excel,替换方便,指标计算有决定系数R2,平均绝对误差MAE,平均相对误差MBE
在数据的海洋中,时间序列预测就像一座神秘的岛屿,吸引着无数数据爱好者和工程师前去探索。今天咱们就借着长短期记忆网络(LSTM)这股“东风”,开启时间序列单输入单输出预测的奇妙旅程。
为什么是LSTM
传统的神经网络在处理时间序列时,往往会遇到“梯度消失”或“梯度爆炸”的问题,就好像人走太远路会累垮一样,时间序列稍长一点,传统神经网络就“歇菜”了。而LSTM就像是给神经网络装上了一个“记忆背包”,能够很好地处理长期依赖问题,记住时间序列中的重要信息,让预测更靠谱。
数据准备
咱们的数据要存在Excel里,替换起来方便。假设我们的数据是简单的时间序列数值,例如每月的销售额。我们可以用pandas库来读取数据。
import pandas as pd # 读取Excel数据 data = pd.read_excel('time_series_data.xlsx') # 提取特征列(这里假设只有一列数值) features = data.iloc[:, 0].values这段代码很简单,pd.read_excel就是把Excel文件里的数据读进来,存到data这个变量里。然后通过iloc方法,我们提取出第一列(索引从0开始)的数据,这就是我们的特征值,存到features里。
数据预处理
在把数据喂给LSTM之前,得给它“打扮打扮”。我们通常要把数据归一化到0 - 1之间,就像给数据排排队,让它们在一个合适的“身高范围”内。
from sklearn.preprocessing import MinMaxScaler scaler = MinMaxScaler(feature_range=(0, 1)) scaled_features = scaler.fit_transform(features.reshape(-1, 1))这里MinMaxScaler就是负责归一化的“小能手”,featurerange=(0, 1)指定了归一化的范围。reshape(-1, 1)是因为fittransform方法要求数据是二维的,所以把一维的features变成二维。
创建数据集
LSTM需要特定格式的输入数据,一般是以序列的形式。我们要创建输入输出对。
def create_dataset(dataset, look_back=1): dataX, dataY = [], [] for i in range(len(dataset)-look_back): a = dataset[i:(i+look_back), 0] dataX.append(a) dataY.append(dataset[i + look_back, 0]) return np.array(dataX), np.array(dataY) look_back = 1 X, Y = create_dataset(scaled_features, look_back)createdataset这个函数就是干这个事的。lookback表示我们用过去多少个时间步的数据来预测下一个时间步,这里设为1。循环里每次取look_back个数据作为输入a,然后下一个数据作为输出,分别存到dataX和dataY里,最后返回处理好的X和Y。
构建LSTM模型
现在到了搭建LSTM模型的关键环节。
from keras.models import Sequential from keras.layers import LSTM, Dense import numpy as np # 重塑输入数据为 [样本数, 时间步数, 特征数] X = np.reshape(X, (X.shape[0], X.shape[1], 1)) model = Sequential() model.add(LSTM(4, input_shape=(look_back, 1))) model.add(Dense(1)) model.compile(loss='mean_squared_error', optimizer='adam')先把X数据重塑成LSTM要求的三维格式:[样本数, 时间步数, 特征数]。然后创建一个顺序模型Sequential,添加一个LSTM层,这里设置了4个隐藏单元,输入形状就是我们之前设置的lookback和特征数1。再添加一个全连接层Dense,输出维度为1,因为我们是单输出预测。最后用均方误差meansquared_error作为损失函数,adam优化器来编译模型。
模型训练
model.fit(X, Y, epochs=100, batch_size=1, verbose=2)这行代码就是让模型开始训练啦,epochs表示训练的轮数,这里是100轮;batch_size是每次训练用的数据量,设为1;verbose控制训练过程中输出信息的详细程度,2表示每个epoch输出一行信息。
模型评估
训练完了,得看看模型表现咋样,这就用到决定系数R2、平均绝对误差MAE和平均相对误差MBE。
from sklearn.metrics import r2_score, mean_absolute_error import numpy as np # 预测 predictions = model.predict(X) # 反归一化 predictions = scaler.inverse_transform(predictions) Y = scaler.inverse_transform([Y]) # 计算指标 r2 = r2_score(Y[0], predictions[:, 0]) mae = mean_absolute_error(Y[0], predictions[:, 0]) # 计算MBE mbe = np.mean((Y[0] - predictions[:, 0]) / Y[0]) * 100 print(f'R2: {r2}') print(f'MAE: {mae}') print(f'MBE: {mbe}%')先让模型对训练数据进行预测predictions,然后把预测结果和真实值反归一化回原始数据范围。接着用r2score和meanabsolute_error计算R2和MAE,MBE则通过公式自己计算。最后打印出这几个指标,看看模型的预测效果到底如何。
基于长短期记忆网络算法LSTM的时间序列预测 单输入单输出预测 代码含详细注释,不负责 数据存入Excel,替换方便,指标计算有决定系数R2,平均绝对误差MAE,平均相对误差MBE
通过以上步骤,我们就完成了基于LSTM的时间序列单输入单输出预测,从数据准备到模型评估,每一步都充满了乐趣与挑战,希望大家在这个过程中也能收获满满!