zl程序教程

您现在的位置是:首页 >  工具

当前栏目

基于正交对立学习的改进麻雀搜索算法-附代码

学习代码 基于 改进 搜索算法 正交 麻雀
2023-09-14 09:06:12 时间

基于正交对立学习的改进麻雀搜索算法


摘要:针对麻雀搜索算法种群多样性少,局部搜索能力弱的问题,本文提出了基于正交对立学习的改进型麻雀搜索算法(OOLSSA)。首先,在算法中引入正态变异算子,丰富算法种群多样性;其次,利用对立学习策略,增强算法跳出局部最优的能力;然后,在加入者更新之后引入正交对立学习机制,加快算法的收敛速度;

1.麻雀优化算法

基础麻雀算法的具体原理参考,我的博客:https://blog.csdn.net/u011835903/article/details/108830958

2. 改进麻雀算法

2.1 正态变异扰动

在其原始加人者的位置更新公式中, 直接让非饥饿的 个体一开始从发现者最优位置附近进行更新, 这样会导致 种群的多样性单一, 增加种群陷人局部最优的可能性。因 此, 这里引人正态变异算子对式 (2) 中的最优位置进行扰 动, 让非饥俄的加人者向发现者最优位置的变异解学习, 这 样能够增大种群多样性与跳出局部最优的能力。其中, 正 态变异公式为: X t = X t + α ⋅ X t \boldsymbol{X}^t=\boldsymbol{X}^t+\alpha \cdot \boldsymbol{X}^t Xt=Xt+αXt 。为了避免仅加值的方法

影响算法性能, 在扰动公式中引入方向因子 F F F, 改进公式如 式 (4) (5) 所示。
F = { − 1 , r < 0.5 1 ,  其他  ( 4 ) X R b  estj  t = X bestj  t + F ⋅ α ⋅ X bextj  t ( 5 ) \begin{aligned} &F=\left\{\begin{array}{c} -1, \quad r<0.5 \\ 1, \text { 其他 } \end{array}\right. (4)\\ &\boldsymbol{X}_{R b \text { estj }}^t=\boldsymbol{X}_{\text {bestj }}^t+F \cdot \alpha \cdot \boldsymbol{X}_{\text {bextj }}^t (5) \end{aligned} F={1,r<0.51, 其他 (4)XRb estj t=Xbestj t+FαXbextj t(5)
式 (4) (5) 中: r r r 是取值范围在 [ 0 , 1 ] [0,1] [0,1] 的随机数, α \alpha α 是服从 N ( 0 , 1 ) N(0,1) N(0,1) 的随机数。加人者更新公式改进如式 (6) 所示。
X i , j t + 1 = { Q ⋅ exp ⁡ ( X uosstj  t − X i , j t i 2 ) , i > n 2 X Rbeetj  t + 1 + ∣ X i , j t − X R b e e x j t + 1 ∣ ⋅ A + ⋅ L ,  其他  (6) \boldsymbol{X}_{i, j}^{t+1}= \begin{cases}Q \cdot \exp \left(\frac{\boldsymbol{X}_{\text {uosstj }}^t-\boldsymbol{X}_{i, j}^t}{i^2}\right), & i>\frac{n}{2} \\ \boldsymbol{X}_{\text {Rbeetj }}^{t+1}+\left|\boldsymbol{X}_{i, j}^t-\boldsymbol{X}_{R b e e x j}^{t+1}\right| \cdot \boldsymbol{A}^{+} \cdot \boldsymbol{L}, & \text { 其他 }\end{cases} \tag{6} Xi,jt+1={Qexp(i2Xuosstj tXi,jt),XRbeetj t+1+ Xi,jtXRbeexjt+1 A+L,i>2n 其他 (6)
式 (6)中: X R  Recesj  t \boldsymbol{X}_{R \text { Recesj }}^t XR Recesj t 是当前最优发现者的正态变异扰动解。

2.2 对立学习

对立学习是一种常用的跳出局部最优解位置的策略。 在原始麻雀搜索算法的侦查时, 最优位置的麻雀往最差解 靠拢,其他位置麻﨎往最优值靠拢。虽然往最差解位置搜 索, 一定程度上能够避免陷人局部最优, 但这样并不利于种 群的收敛。而对立学习不仅能帮助个体快速逃离当前位 置, 而且对立位置相比于当前最差位置, 其适应度值更有可 能比于当前位置更优, 因此,在侦查部分的位置更新公式引 人对立学习策略, 其改进公式如式 (7):
X i , j t + 1 = { X b e s t j t + β ⋅ ∣ X i , j t − X b e s t j t ∣ , f i > f g l b + u b − β ⋅ X i , j t ,  其他  (7) \boldsymbol{X}_{i, j}^{t+1}=\left\{\begin{array}{l} \boldsymbol{X}_{b e s t j}^t+\beta \cdot\left|\boldsymbol{X}_{i, j}^t-\boldsymbol{X}_{b e s t j}^t\right|, \quad \boldsymbol{f}_i>\boldsymbol{f}_{\mathrm{g}} \\ l b+u b-\beta \cdot \boldsymbol{X}_{i, j}^t, \text { 其他 } \end{array}\right. \tag{7} Xi,jt+1={Xbestjt+β Xi,jtXbestjt ,fi>fglb+ubβXi,jt, 其他 (7)
式 (7) 中: β \beta β 是服从 N ( 0 , 1 ) N(0,1) N(0,1) 的随机数, l b l b lb u b u b ub 分别为搜索 空间的下界和上界。

2.3 正交对立学习

正交对立学习策略是利用当前解与对立解, 通过正交 实验设计, 以较少的实验次数找到不同因素的水平最佳组 合的一种方法。目前相关研究方面, 閤大海等 [ 14 ] { }^{[14]} [14] 提出了基 于正交设计的反向学习策略, 并应用在差分进化算法上, 提 高了算法的鲁棒性; 周凌云等 [ 15 ] { }^{[15]} [15] 基于萤火虫算法, 引人了 正交重心反向学习策略, 增强了算法求解复杂问题的能力; 基于此, 本文融合对立学习与正交学习, 提出正交对立学习 策略, 对麻雀搜索算法进行改进。该策略的基本思想是: 利 用当前位置与其对立位置, 根据正交表构建正交候选解, 接 着对各候选解进行评估, 最终取出其中最佳的正交组合。 通过这种方式, 充分利用个体和对立个体中各维度的信息 并找到最佳组合, 其流程如图 1
L 4 ( 2 3 ) = [ 1 1 1 1 2 2 2 1 2 2 2 1 ] (8) \boldsymbol{L}_4\left(2^3\right)=\left[\begin{array}{lll} 1 & 1 & 1 \\ 1 & 2 & 2 \\ 2 & 1 & 2 \\ 2 & 2 & 1 \end{array}\right] \tag{8} L4(23)= 112212121221 (8)
在正交表中,同一列的 1 和 2 分别代表第一个水平和第 二个水平的在该列的维度信息。矩阵中的第一行是当前个体 本身, 其他行是两个水平不同维度之间的正交组合, 式 (8)中只 需要进行 4 次评估, 即可找到当前解与对立解的最佳正交组 合。而针对本文的正交对立学习策略, 则需要构建 D D D 因素二 水平的正交表, 其中 D D D 为种群维度。随着维数的增多, 试验评 估的次数也会增加,但算法的收敛性能也会更好。
请添加图片描述

由于正交表包括个体本身位置, 每一个候选解均有相 同的概率成为最佳正交解, 存在经过 M M M 次的评估后, 仍然 存在输出最优解为个体本身的可能性。假设种群中每一个 个体都进行正交学习, 这样固然能够更好的加快算法收敛 速度, 但这样同时也会大大增加实验评估的次数, 并不适用 于解决实际问题。因此, 本文正交对立学习策略仅应用在 加人者位置更新部分。在加人者按照式 (6) 更新后, 再利用 式 (7) 中的对立公式得到其对立解, 将以上两个位置按照 D D D 因素二水平的正交表构建正交候选解, 经过计算适应度值 评估后, 将最佳正交解候选解作为当前加人者的最终更新 位置。通过这种方法, 能够提高算法收敛速度与精度的同 时避免算法陷人局部最优的问题。
请添加图片描述

3.实验结果

请添加图片描述

4.参考文献

[1]王天雷,张绮媚,李俊辉,周京,刘人菊,谭南林.基于正交对立学习的改进麻雀搜索算法[J].电子测量技术,2022,45(10):57-66.DOI:10.19651/j.cnki.emt.2209151.

5.Matlab代码

6.Python代码