基于混沌透镜成像学习的哈里斯鹰优化算法

一、理论基础

1、哈里斯鹰优化算法

请参考这里

2、基于混沌透镜成像学习的哈里斯鹰优化算法

(1)Fuch无限折叠混沌策略

Fuch为可无限折叠的混沌映射,比起传统的混沌映射,Fuch映射具有更佳的遍历性、动态性和收敛性等优点,因此,选用Fuch映射生成HHO初始种群。在FLHHO算法中,Fuch混沌映射值替换随机生成的值,用于在初始化阶段生成哈里斯鹰种群位置。Fuch混沌映射数学表达式为: x ( t + 1 ) = cos ⁡ [ 1 x ( t ) 2 ] (1) x(t+1)=\cos\left[\frac{1}{x(t)^2}\right]\tag{1} x(t+1)=cos[x(t)21](1)其中, x ( t ) ≠ 0 , x ∈ Z + , t = 1 , 2 , ⋯   , T x(t)\neq0,x\in Z^+,t=1,2,\cdots,T x(t)=0,xZ+,t=1,2,,T

(2)黄金正弦策略

本文将黄金正弦算子引入到HHO探索阶段位置更新中,利用黄金分割搜索使搜索空间的个体能够按最优路径搜索,个体可以在搜索空间中连续寻找最优解,Golden-SA可以根据正弦函数和单位圆之间的关系遍历正弦函数上的所有值从而提高了算法的全局探索能力。同时,黄金分割系数使搜索个体能够以固定的步长更新距离和方向,并不断缩小要探索的空间,以便个体能在目标位置的区域(而不是整个搜索空间)中进行搜索,从而提高了算法的局部开发能力。 x i ( t + 1 ) = { x i ( t ) × ∣ sin ⁡ ( R 1 ) ∣ + R 2 sin ⁡ ( R 1 ) × ∣ x 1 x prey ( t ) − x 2 x i ( t ) ∣ q ≥ 0.5 [ x prey ( t ) − x m ( t ) ] − r 1 [ l b i + r 2 ( u b i − l b i ) ]      q < 0.5 (2) x_i(t+1)=\begin{dcases}x_i(t)\times|\sin(R_1)|+R_2\sin(R_1)\times|x_1x_{\text{prey}}(t)-x_2x_i(t)|\quad q\geq0.5\\[2ex][x_{\text{prey}}(t)-x_m(t)]-r_1[lb_i+r_2(ub_i-lb_i)]\quad\quad\quad\quad\quad\quad\,\,\,\, q<0.5\end{dcases}\tag{2} xi(t+1)=xi(t)×sin(R1)+R2sin(R1)×x1xprey(t)x2xi(t)q0.5[xprey(t)xm(t)]r1[lbi+r2(ubilbi)]q<0.5(2)其中, R 1 ∈ [ 0 , 2 π ] , R 2 ∈ [ 0 , π ] R_1\in[0,2\pi],R_2\in[0,\pi] R1[0,2π],R2[0,π] x 1 = − π τ + π ( 1 − τ ) x_1=-\pi\tau+\pi(1-\tau) x1=πτ+π(1τ) x 2 = − π ( 1 − τ ) + π τ x_2=-\pi(1-\tau)+\pi\tau x2=π(1τ)+πτ是通过黄金比率计算的系数,可以使个体搜索空间时更接近目标值, τ = ( 5 − 1 ) / 2 \tau=(\sqrt5-1)/2 τ=(5 1)/2为黄金分割系数。

(3)融合透镜成像学习和柯西变异策略

透镜成像学习原理请参考这里。目标位置采取透镜成像学习原理的更新公式为: x best ∗ ( t ) = a + b 2 + a + b 2 k − x best ( t ) k (3) x_{\text{best}}^*(t)=\frac{a+b}{2}+\frac{a+b}{2k}-\frac {x_{\text{best}}(t)}{k}\tag{3} xbest(t)=2a+b+2ka+bkxbest(t)(3)其中, a a a b b b分别为 x best ( t ) x_{\text{best}}(t) xbest(t)取值的上下界, k k k为缩放因子,本文取值为10000。
柯西算子引入目标位置更新,发挥柯西算子的调节能力,增强算法跳出局部最优的能力,其更新公式为: x best ∗ ( t ) = cauchy ( 0 , 1 ) ⊕ x best ( t ) + x best ( t ) (4) x_{\text{best}}^*(t)=\text{cauchy}(0,1)\oplus x_{\text{best}}(t)+x_{\text{best}}(t)\tag{4} xbest(t)=cauchy(0,1)xbest(t)+xbest(t)(4)为了提高HHO的寻优性能,FLHHO采取动态选择策略来更新目标位置,在一定的概率 p r p_r pr下交替选择透镜成像学习策略和柯西变异策略来更新目标位置。 p r = 0.4 exp ⁡ ( − t / T ) (5) p_r=0.4\exp(-t/T)\tag{5} pr=0.4exp(t/T)(5) p r p_r pr是随迭代自适应更改的参数,利用概率 p r p_r pr选择不同策略更新目标位置。在迭代早期阶段 p r p_r pr相对较大,此时 p r > r a n d p_r>rand pr>rand,利用式(4)对目标位置进行柯西扰动,有效避免种群多样性下降和过早收敛。提高HHO从局部最佳位置逃出的能力。当 p r < r a n d p_r<rand pr<rand时,对目标位置选择式(3)透镜成像学习策略进行更新,扩大HHO搜索范围,以较快的速度完成全局搜索,提高算法寻优精度。

二、仿真实验与结果分析

将FLHHO与IGWO[2]、SSA、WOA和HHO进行对比,以文献[1]中表1的F1、F2、F3(单峰函数/30维)、F10、F11、F12(多峰函数/30维)为例,实验设置种群规模为30,最大迭代次数为500,每种算法独立运算30次,结果显示如下:
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

函数:F1
FLHHO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
IGWO:最差值: 1.3e-27, 最优值: 6.8342e-30, 平均值: 2.0862e-28, 标准差: 2.6996e-28, 秩和检验: 1.2118e-12
SSA:最差值: 1.073e-74, 最优值: 0, 平均值: 6.5067e-76, 标准差: 2.4798e-75, 秩和检验: 5.772e-11
WOA:最差值: 1.5909e-72, 最优值: 1.246e-84, 平均值: 9.8457e-74, 标准差: 3.738e-73, 秩和检验: 1.2118e-12
HHO:最差值: 4.0512e-93, 最优值: 1.4142e-119, 平均值: 1.3556e-94, 标准差: 7.3956e-94, 秩和检验: 1.2118e-12
函数:F2
FLHHO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
IGWO:最差值: 1.2446e-17, 最优值: 1.1426e-18, 平均值: 5.5057e-18, 标准差: 3.0392e-18, 秩和检验: 1.2118e-12
SSA:最差值: 5.6877e-34, 最优值: 0, 平均值: 1.9478e-35, 标准差: 1.0377e-34, 秩和检验: 4.5736e-12
WOA:最差值: 5.7834e-49, 最优值: 2.4835e-56, 平均值: 2.6172e-50, 标准差: 1.0773e-49, 秩和检验: 1.2118e-12
HHO:最差值: 2.0574e-47, 最优值: 2.4628e-59, 平均值: 7.2165e-49, 标准差: 3.7508e-48, 秩和检验: 1.2118e-12
函数:F3
FLHHO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
IGWO:最差值: 0.0052313, 最优值: 2.9657e-06, 平均值: 0.00069786, 标准差: 0.0013029, 秩和检验: 1.2118e-12
SSA:最差值: 1.0433e-49, 最优值: 0, 平均值: 3.902e-51, 标准差: 1.9107e-50, 秩和检验: 4.5736e-12
WOA:最差值: 80966.5679, 最优值: 19006.7226, 平均值: 46354.5289, 标准差: 13792.6375, 秩和检验: 1.2118e-12
HHO:最差值: 2.4589e-73, 最优值: 8.4156e-99, 平均值: 8.2469e-75, 标准差: 4.4885e-74, 秩和检验: 1.2118e-12
函数:F10
FLHHO:最差值: 8.8818e-16, 最优值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0, 秩和检验: NaN
IGWO:最差值: 1.0392e-13, 最优值: 4.3521e-14, 平均值: 6.0337e-14, 标准差: 1.4542e-14, 秩和检验: 1.047e-12
SSA:最差值: 8.8818e-16, 最优值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0, 秩和检验: NaN
WOA:最差值: 7.9936e-15, 最优值: 8.8818e-16, 平均值: 4.4409e-15, 标准差: 2.4685e-15, 秩和检验: 3.6292e-09
HHO:最差值: 8.8818e-16, 最优值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0, 秩和检验: NaN
函数:F11
FLHHO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
IGWO:最差值: 0.027082, 最优值: 0, 平均值: 0.0032891, 标准差: 0.0067686, 秩和检验: 0.0055843
SSA:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
WOA:最差值: 0.20047, 最优值: 0, 平均值: 0.012035, 标准差: 0.0461, 秩和检验: 0.1608
HHO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
函数:F12
FLHHO:最差值: 2.0381e-05, 最优值: 5.0859e-08, 平均值: 5.6537e-06, 标准差: 5.357e-06, 秩和检验: 1
IGWO:最差值: 0.10374, 最优值: 4.5077e-06, 平均值: 0.0037865, 标准差: 0.018913, 秩和检验: 0.0055699
SSA:最差值: 2.7771e-09, 最优值: 4.5818e-14, 平均值: 2.6415e-10, 标准差: 5.3151e-10, 秩和检验: 3.0199e-11
WOA:最差值: 0.072309, 最优值: 0.0048202, 平均值: 0.021395, 标准差: 0.016057, 秩和检验: 3.0199e-11
HHO:最差值: 2.4125e-05, 最优值: 2.8796e-10, 平均值: 4.519e-06, 标准差: 5.7858e-06, 秩和检验: 0.28378

实验结果表明:FLHHO优于HHO和其他最新算法。

三、参考文献

[1] 尹德鑫, 张琳娜, 张达敏, 等. 基于混沌透镜成像学习的哈里斯鹰算法及其应用[J]. 传感技术学报, 2021, 34(11): 1463-1474.
[2] Mohammad H. Nadimi-Shahraki, Shokooh Taghian, Seyedali Mirjalili. An improved grey wolf optimizer for solving engineering problems[J]. Expert Systems with Applications, 2021, 166: 113917.

猜你喜欢

转载自blog.csdn.net/weixin_43821559/article/details/124708649
今日推荐