程序名称:基于RFAConv-BiGRU的多变量时间序列预测
实现平台:python—Jupyter Notebook
代码简介:构建了基于RFAConv(感受野注意力卷积)-BiGRU(双向门控循环单元)多变量时间序列预测。高创新点,原创未发表,注释超详细,几乎每行一注释。限量。
RFAConv(Receptive-Field Attention Convolution)的核心原理是通过引入感受野注意力(Receptive-Field Attention, RFA)机制来解决传统卷积操作中参数共享的问题,并增强卷积层对局部特征的捕捉能力。
1.感受野注意力(Receptive-Field Attention, RFA)
感受野空间特征(Receptive-Field Spatial Feature):RFAConv 的关键在于引入了感受野空间特征的概念。与传统的空间注意力机制(如CBAM和CA)不同,RFA 不仅关注空间特征,还特别关注感受野内的空间特征。感受野空间特征是根据卷积核的大小动态生成的,每个感受野内的特征被视为一个独立的单元。动态权重分配:RFA 通过为每个感受野内的特征分配不同的权重,解决了传统卷积操作中参数共享的问题。这种动态权重分配使得模型能够更好地捕捉局部特征的差异,从而提高特征提取的效率。
2.RFAConv 的结构
感受野特征提取:RFAConv 使用一种快速的方法(如Group Convolution)来提取感受野空间特征,而不是传统的 Unfold 方法。这种方法不仅提高了效率,还减少了计算开销。注意力权重生成:通过全局平均池化(AvgPool)和1×1卷积(1×1 group convolution)生成每个感受野内的注意力权重。这些权重通过softmax函数进行归一化,以强调每个特征的重要性。特征融合:最终,RFAConv 将生成的注意力权重与感受野空间特征相乘,得到加权后的特征图。这些特征图再通过一个标准的卷积操作(如3×3卷积)进行进一步的特征提取。
原文RFAConv的提出用于机器视觉领域,现有大部分结合该算法的文献也都是应用于图像识别等(如结合YOLO),本代码创新性的将RFAConv与双向门控循环单元结合,应用于时间序列预测。
RFAConv的核心在于动态分配感受野权重,彻底解决传统卷积的“一刀切”问题。在代码里,它通过三步精准操作实现:第一步,用AveragePooling2D(池化窗口=卷积核大小)对输入做局部聚合,生成感受野基础特征;接着用Conv2D(1×1分组卷积,groups=in_channel)将特征通道扩展为in_channel * (kernel_size²),再通过softmax在感受野维度上归一化权重(比如3×3核就生成9个权重,动态强调关键区域)。第二步,用标准卷积(kernel_size)生成原始特征,经BatchNormalization和ReLU激活后,与第一步的权重相乘(feature * weight),实现局部特征加权。第三步,通过transpose和reshape重排张量(比如把(8, 3, 3, 10, 10)转成(8, 3, 30, 30)),再用Conv2D输出最终特征图。整个过程像给每个时间点“配专属眼镜”——比如光伏数据中,RFAConv会自动放大骤变点(如云层遮挡)的权重,而忽略平稳区域,让模型更聚焦关键模式。
模型把RFAConv嵌入时间序列处理的“黄金链条”:输入数据先被Reshape成(batch, time_steps, features, 1)(像把时间线压成单通道图像),RFAConv(in_channel=1, out_channel=32)精准提取局部特征后,立刻用Reshape转为(batch, sequence_length, features)——这步超关键!它把二维卷积输出无缝喂给BiGRU。BiGRU作为“时间侦探”,用双向结构(正向看趋势、反向看回溯)捕捉长距离依赖,而RFAConv的加权特征就像给BiGRU的“情报包”:比如光伏出力的早高峰和晚高峰,RFAConv已提前标出关键时段,BiGRU就能更高效地串联这些片段。最后BiGRU输出经Dropout防过拟合,接全连接层输出预测值。这种组合绝了——RFAConv负责“局部火眼金睛”,BiGRU负责“全局战略推演”,(代码里每行注释都超到位,连reshape的维度计算都写得明明白白,太走心了!)
参考文献:《RFAConv: Innovating Spatial Attention and Standard Convolutional Operation》
代码获取方式:【原创改进代码】基于RFAConv(感受野注意力卷积)-BiGRU(双向门控循环单元)多变量时间序列预测
预测集评价指标:
均方误差 (MSE): 0.008375
平均绝对误差 (MAE): 0.049102
均方根误差 (RMSE): 0.091514
决定系数 (R²): 0.907157
程序名称:基于Bayes-PatchTST的综合能源负荷多变量时间序列预测
实现平台:python—Jupyter Notebook
代码简介:构建了基于贝叶斯优化的PatchTST能源负荷多变量时间序列预测模型。
贝叶斯优化是一种高效的全局优化方法,特别适用于目标函数计算成本高、无法求导或评估耗时的场景,如机器学习模型的超参数调优。其核心思想是通过构建一个概率代理模型(如高斯过程)来近似真实的目标函数,并利用采集函数在“探索未知区域”和“利用已知优秀区域”之间取得平衡,从而以尽可能少的评估次数找到接近最优的参数组合。
PatchTST(Patch Time Series Transformer)是一种专为时间序列预测任务设计的Transformer架构,其核心思想借鉴了计算机视觉中Vision Transformer(ViT)的“图像分块(patching)”策略,并将其适配到一维时间序列数据上。该方法由NeurIPS 2023的一篇论文《A Time Series is Worth 64 Words: Long-term Forecasting with Transformers》提出,旨在解决传统Transformer在长序列时间序列预测(Long-term Time Series Forecasting, LTSF)中存在的注意力机制效率低、对局部时序模式建模能力弱等问题。
代码实现了一个基于PatchTST(Patch Time Series Transformer)架构的时间序列预测模型,并通过贝叶斯优化(Optuna)自动搜索最优超参数,以提升模型在综合能源负荷数据上的预测性能。整体流程可分为以下几个阶段:首先,在“复现控制”部分固定了Python、NumPy和TensorFlow的随机种子,确保实验结果可复现;接着,从Excel文件中读取能源负荷数据,利用滑动窗口方法构建输入-输出样本对;随后,对输入特征和目标变量分别进行Min-Max标准化处理,并按时间顺序划分训练集与测试集,避免打乱时序结构。在此基础上,定义了PatchTST模型类:该模型将输入序列划分为若干长度的patch,通过全连接层将每个patch映射到高维嵌入空间,并加入可学习的位置编码;随后堆叠多层Transformer模块(每层包含多头自注意力机制、前馈网络及LayerNorm归一化),最后通过全局平均池化和全连接层输出单步预测结果。为了优化模型性能,采用Optuna框架执行贝叶斯超参数搜索,在多次试验中自动调整d_model、n_heads、d_ff、n_layers、dropout和学习率等关键参数,并以验证集最小MSE作为优化目标。获得最优参数后,分别构建并训练最优参数模型与默认参数模型,两者均在相同数据上训练20个epoch。最后,通过对比两种模型的训练/验证损失曲线、MAE变化趋势、实际值与预测值的时间序列图以及散点图,全面评估其预测效果;同时计算MSE、MAE和R²三项指标,量化显示贝叶斯优化带来的性能提升(如MSE降低百分比等),从而验证了自动化超参数调优在时间序列预测任务中的有效性。
参考文献:《A Time Series Is Worth 64 Words: Long-Term Forecasting with Transformers》
代码获取方式:【原创代码改进】基于贝叶斯优化的PatchTST综合能源负荷多变量时间序列预测