飞道的博客

麻雀搜索算法优化BP神经网络回归预测以及MATLAB代码实现

1757人阅读  评论(0)

麻雀搜索算法SSA优化BP神经网络回归预测以及MATLAB代码实现

1. 麻雀搜索算法SSA原理

麻雀搜索算法是一种较新的智能优化算法,在2020年提出,主要是受麻雀的觅食行为和反捕食行为的启发。算法具有较高的收敛性能与全局搜索能力。

1.1 算法灵感来源

麻雀种群在觅食过程中分为发现者与加入者两部分,分别负责提供种群觅食的方向以及追随并获取食物。当麻雀种群意识到危险时,则会发生反捕食行为并更新种群位置。

1.2 算法模型描述

关于麻雀搜索算法,建立了六个假设规则,在参考文献中给出,故不作说明。

符号说明

N:最大迭代次数 n:种群大小 PD:发现者数量 SD 感应危险的麻雀数量
ST:安全值 R2:预警值(由随机数产生)

算法实现步骤

步骤一:初始化麻雀种群位置与适应度,N,n,PD,SD,ST参数初值。
步骤二:开始循环,iteration<N
步骤三:种群排序,得出当前的最优麻雀个体位置,以及最佳适应度值。(注意对于第一代麻雀而言,求出的为初始最优。最优个体能够优先获取食物)
步骤四:觅食行为,a). 按以下公式更新发现者位置。

式中,Q为服从正态分布的随机数,L为单位行向量,a为[0 1]之间的随机数。
步骤五:b). 按以下公式更新加入者位置。

式中,Xworst为适应度最低的麻雀位置,A+为只随机包含1与-1两个元素的行向量。
步骤六:反捕食行为,更新麻雀种群的位置。

式中,β是服从正态分布的随机数,作用是控制更新位置的步长。K是[-1,1]之间的随机数,fi是个体适应度值。ε是接近0的常数,避免分母为零的情况。
步骤七:更新历史最优适应度(相当于适应度的公告板更新)。
步骤八:执行步骤三到七,当达到最大迭代次数,结束循环。输出最优个体位置与适应度值。

2. SSA优化BP神经网络预测算法流程

选用麻雀搜索算法SSA优化BP神经网络的初始权重与阈值。选取训练集与测试集整体的均方误差为适应度值。适应度函数值越小,表明训练越准确,且兼顾模型的预测精度更好。

SSA优化BP回归预测流程图设计:

3. SSA优化BP回归预测的MATLAB实现步骤

3.1 数据说明
采用MATLAB官方的建筑物能源数据集为例,建立BP回归预测与麻雀搜索算法SSA优化BP的回归预测模型。

3.2 数据格式

样本编号 features1 features2 features3 featuresn target
1
2
n

3.3 读取数据

%% 数据读取
data=xlsread('数据.xlsx','Sheet1','A1:N252'); %%使用xlsread函数读取EXCEL中对应范围的数据即可

%输入输出数据
input=data(:,1:end-1);    %data的第一列-倒数第二列为特征指标
output=data(:,end);  %data的最后面一列为输出的指标值

N=length(output);   %全部样本数目
testNum=15;   %设定测试样本数目
trainNum=N-testNum;    %计算训练样本数目

3.4 确定BP神经网络的拓扑结构
a). 输入层和输出层节点使用size函数直接获取。函数用法:[M,N]=size(A),M为A的行数,N为A的列数。size(A,2)得到的是第二个参数N,即列数。

inputnum=size(input,2);   %输入层神经元节点个数
outputnum=size(output,2);  %输出层神经元节点个数

b). 隐含层节点的确定过程,使用循环来遍历范围内的隐含层节点与训练误差情况。因为要找最小的误差,所以初始化训练误差时,将MSE设置较大的数字,用于在循环中确定最佳的隐含层节点。

%确定隐含层节点个数
%采用经验公式hiddennum=sqrt(m+n)+a,m为输入层节点个数,n为输出层节点个数,a一般取为1-10之间的整数
MSE=1e+5; %初始化最小误差
for hiddennum=fix(sqrt(inputnum+outputnum))+1:fix(sqrt(inputnum+outputnum))+10
    

3.5 BP与SSA的参数设置

3.5.1 BP神经网络参数

net=newff(inputn,outputn,hiddennum_best,{
   'tansig','purelin'},'trainlm');% 建立模型

%网络参数配置
net.trainParam.epochs=1000;         % 训练次数,设置为1000次
net.trainParam.lr=0.01;                   % 学习速率,设置为0.01
net.trainParam.goal=0.00001;                    % 训练目标最小误差,设置为0.0001
net.trainParam.show=25;                % 显示频率,设置为每训练25次显示一次
net.trainParam.mc=0.01;                 % 动量因子
net.trainParam.min_grad=1e-6;       % 最小性能梯度
net.trainParam.max_fail=6;               % 最高失败次数

3.5.2 麻雀搜索算法SSA初始参数

popsize=30;   %初始种群规模
maxgen=50;   %最大进化代数
lb=repmat(-3,1,dim);    %自变量下限
ub=repmat(3,1,dim);   %自变量上限
ST = 0.6;%安全值
PD = 0.7;%发现者占种群的比重,其余的为加入者
SD = 0.2;%感应危险的麻雀所占比重

注:关于优化变量元素个数dim的计算,给出代码的计算公式如下。关于计算过程,请参考我的另一篇博客:3.3 节 遗传算法优化BP权重和阈值的设计

%自变量个数
dim=inputnum*hiddennum_best+hiddennum_best+hiddennum_best*outputnum+outputnum;    

3.5.3 适应度函数公式

数学模型为:

式中,TraingingSet,TestingSet,分别为训练集和测试集的样本。使用麻雀搜索算法优化后,适应度函数值越小,即均方误差MSE越小,表明训练越准确,且模型的预测精度更好。

计算适应度的代码命令:

fitness=(mse(output_train,train_simu)+mse(output_test,test_simu))/2; %适应度函数选取为训练集与测试集整体的均方误差平均值

3.6 优化后的权重与阈值赋给BP

%矩阵重构
net.iw{
   1,1}=reshape(w1,hiddennum_best,inputnum);  %输入层到隐含层的权值矩阵
net.lw{
   2,1}=reshape(w2,outputnum,hiddennum_best);   %隐含层的阈值向量
net.b{
   1}=reshape(B1,hiddennum_best,1);   %隐含层到输出层的权值矩阵
net.b{
   2}=reshape(B2,outputnum,1);   %输出层的阈值向量

3.7 SSA优化后的BP神经网络训练与仿真预测

%% 优化后的神经网络训练
net=train(net,inputn,outputn);%开始训练,其中inputn,outputn分别为输入输出样本

%% 优化后的神经网络测试
an1=sim(net,inputn_test);
test_simu1=mapminmax('reverse',an1,outputps); %把仿真得到的数据还原为原始的数量级

4. 运行结果与图像

1 BP各层的神经元个数的确定过程


2 麻雀搜索算法SSA进化曲线

3 麻雀搜索算法SSA优化BP神经网络与BP的预测结果对比

4 预测值和真实值的误差计算对比(MAE、MSE、RMSE、MAPE)

5. MATLAB代码与数据下载地址

麻雀搜索算法SSA优化BP神经网络回归预测的MATLAB代码与数据地址

https://mianbaoduo.com/o/bread/YZmXkppt


转载:https://blog.csdn.net/qq_45955094/article/details/116493485
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场