基于混沌优化和自适应反向学习的秃鹰搜索算法

一、理论基础

1、基本秃鹰搜索算法

请参考这里

2、基于混沌优化和自适应反向学习的秃鹰搜索算法(CAOBES)

(1)混沌优化

混沌优化的主要思想是利用其具有遍历性、随机性等特点,将变量映射到混沌变量空间的取值区间内,最后将得到的解线性地转换到优化变量空间,从而提高算法性能。
基本秃鹰搜索算法在第一阶段选择搜索空间时,随机数 r r r使得秃鹰选择搜索空间时是简单随机地,故而会使得全局搜索能力不足。由此本文采用混沌映射中的正弦映射(Sine map)来对秃鹰搜索算法中第一步中的随机数 r r r进行优化,正弦映射如下所示: C r = ( p 4 ) × sin ⁡ ( π × C r − 1 ) (1) C_r=\left(\frac{p}{4}\right)\times\sin(\pi\times C_{r-1})\tag{1} Cr=(4p)×sin(π×Cr1)(1) P i , n e w = P b e s t + a × C r × ( P m e a n − P i ) (2) P_{i,new}=P_{best}+a\times C_r\times(P_{mean}-P_i)\tag{2} Pi,new=Pbest+a×Cr×(PmeanPi)(2)式(1)中, C r C_r Cr [ 0 , 1 ] [0,1] [0,1]中的正弦映射, p p p是区间 ( 0 , 4 ) (0,4) (0,4)的随机数。式(2)为经过混沌映射优化之后的秃鹰搜索算法的选择搜索空间阶段的数学模型。

(2)指数自适应优化

基本秃鹰搜索算法的第三阶段作为基本秃鹰搜索算法的开发过程,是决定算法收敛速度的关键过程,研究者通常采用自适应优化来对算法进行改进。
受粒子群算法惯性权重的启发,本文提出一种新的指数自适应优化,在原有基础上增加了随机扰动 r a n d ( ) × w min ⁡ rand()\times w_{\min} rand()×wmin,使得 w w w更加灵活,在加快算法收敛速度的同时防止陷入局部最优。改进公式如下所示: w = w max ⁡ − ( w max ⁡ − w min ⁡ ) t / T − r a n d ( ) × w min ⁡ (3) w=w_{\max}-(w_{\max}-w_{\min})^{t/T}-rand()\times w_{\min}\tag{3} w=wmax(wmaxwmin)t/Trand()×wmin(3) P i , n e w = w × r a n d × P b e s t + δ x + δ y (4) P_{i,new}=w\times rand\times P_{best}+\delta_x+\delta_y\tag{4} Pi,new=w×rand×Pbest+δx+δy(4)其中, w max ⁡ = 0.9 w_{\max}=0.9 wmax=0.9 w min ⁡ = 0.2 w_{\min}=0.2 wmin=0.2 t t t为当前迭代次数, T T T为最大迭代次数。

(3)反向学习

基本秃鹰搜索算法由于捕食阶段的位置是由搜索空间决定的,如果在搜索空间陷入局部最优,那么会影响后期算法的寻优精度,由此在CAOBES进行迭代之前,引入反向学习策略,对秃鹰的位置进行反向解的处理,让算法更好地跳出局部最优,提高算法的寻优精度。该阶段改进公式如下: P i , n e w ′ = r a n d × ( max ⁡ ( P i , n e w ) + min ⁡ ( P i , n e w ) − P i , n e w ) (5) P_{i,new}'=rand\times\left(\max(P_{i,new})+\min(P_{i,new})-P_{i,new}\right)\tag{5} Pi,new=rand×(max(Pi,new)+min(Pi,new)Pi,new)(5)

(4)CAOBES算法步骤

CAOBES算法的基本步骤为:
1)设置参数:最大迭代次数 T T T,初始种群数 nPop \text{nPop} nPop等。
2)随机初始化秃鹰的位置。
3)在选择搜索阶段,利用改进后的式(2)更新秃鹰个体位置。
4)在搜索空间猎物阶段,利用基本BES算法的对应公式更新秃鹰个体位置。
5)在俯冲捕获猎物阶段,利用式(4)更新秃鹰个体位置。
6)运用反向学习策略,通过式(5)更新个体位置。
7)对反向解和原位置的适应度值进行比较,若反向解的适应度值优于原值,则将反向解作为最优值代入下次迭代;反之,直接将原值进入下次迭代。
8)判断是否达到了最大迭代次数,若是,则获得最佳位置和最佳适应度值;否则,转至步骤3)。

二、仿真实验与结果分析

将CAOBES与BES、GWO、PSO、ABC和SSA进行对比,以文献[1]中表1~表3的F1、F2(单峰函数/30维)、F6、F9(多峰函数/30维)、F11、F12(固定维度多峰函数/2维、2维)为例,实验设置种群规模为30,最大迭代次数为50,每种算法独立运算30次,结果显示如下:
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

函数:F1
CAOBES:最差值: 2.3513e-236, 最优值: 0, 平均值: 1.4047e-237, 标准差: 0, 秩和检验: 1
BES:最差值: 1.6453e-161, 最优值: 1.4818e-191, 平均值: 8.6023e-163, 标准差: 3.1435e-162, 秩和检验: 3.018e-11
GWO:最差值: 56.9237, 最优值: 6.5533, 平均值: 18.5905, 标准差: 10.139, 秩和检验: 3.018e-11
PSO:最差值: 1727.8188, 最优值: 649.3381, 平均值: 1063.3253, 标准差: 271.511, 秩和检验: 3.018e-11
ABC:最差值: 17060.5491, 最优值: 6670.4525, 平均值: 11470.1477, 标准差: 2534.4694, 秩和检验: 3.018e-11
SSA:最差值: 5581.9118, 最优值: 1408.3643, 平均值: 3313.382, 标准差: 911.8166, 秩和检验: 3.018e-11
函数:F2
CAOBES:最差值: 3.8828e-224, 最优值: 0, 平均值: 2.0145e-225, 标准差: 0, 秩和检验: 1
BES:最差值: 1.2687e-154, 最优值: 1.9498e-182, 平均值: 4.2332e-156, 标准差: 2.3162e-155, 秩和检验: 3.018e-11
GWO:最差值: 5762.6617, 最优值: 750.0158, 平均值: 3247.0336, 标准差: 1390.5844, 秩和检验: 3.018e-11
PSO:最差值: 12965.6523, 最优值: 3264.7938, 平均值: 7494.1287, 标准差: 2796.9934, 秩和检验: 3.018e-11
ABC:最差值: 64467.7649, 最优值: 37066.8636, 平均值: 52879.1943, 标准差: 6856.3316, 秩和检验: 3.018e-11
SSA:最差值: 19237.4876, 最优值: 2981.9394, 平均值: 9436.9339, 标准差: 4699.5363, 秩和检验: 3.018e-11
函数:F6
CAOBES:最差值: 3.7128e-200, 最优值: 0, 平均值: 1.2714e-201, 标准差: 0, 秩和检验: 1
BES:最差值: 2.2244e-141, 最优值: 1.3472e-171, 平均值: 1.3072e-142, 标准差: 4.4863e-142, 秩和检验: 3.001e-11
GWO:最差值: 191.3549, 最优值: 42.8175, 平均值: 102.9575, 标准差: 38.4877, 秩和检验: 3.001e-11
PSO:最差值: 588.5344, 最优值: 128.8433, 平均值: 313.1975, 标准差: 117.8958, 秩和检验: 3.001e-11
ABC:最差值: 545.6039, 最优值: 286.7677, 平均值: 413.3713, 标准差: 62.0211, 秩和检验: 3.001e-11
SSA:最差值: 856.8249, 最优值: 247.4742, 平均值: 583.7558, 标准差: 147.3807, 秩和检验: 3.001e-11
函数:F9
CAOBES:最差值: 8.8818e-16, 最优值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0, 秩和检验: NaN
BES:最差值: 8.8818e-16, 最优值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0, 秩和检验: NaN
GWO:最差值: 3.7827, 最优值: 2.2023, 平均值: 3.2304, 标准差: 0.40727, 秩和检验: 1.2118e-12
PSO:最差值: 10.6215, 最优值: 7.241, 平均值: 8.5356, 标准差: 0.80716, 秩和检验: 1.2118e-12
ABC:最差值: 19.7085, 最优值: 16.4844, 平均值: 18.1591, 标准差: 0.86895, 秩和检验: 1.2118e-12
SSA:最差值: 14.1784, 最优值: 9.39, 平均值: 11.882, 标准差: 1.1448, 秩和检验: 1.2118e-12
函数:F11
CAOBES:最差值: 1.2154e-234, 最优值: 0, 平均值: 4.0514e-236, 标准差: 0, 秩和检验: 1
BES:最差值: 1.2248e-166, 最优值: 3.6316e-211, 平均值: 4.0869e-168, 标准差: 0, 秩和检验: 2.8646e-11
GWO:最差值: 2.9345e-08, 最优值: 6.904e-23, 平均值: 9.9348e-10, 标准差: 5.3548e-09, 秩和检验: 2.8646e-11
PSO:最差值: 0.00013181, 最优值: 3.4428e-07, 平均值: 2.4514e-05, 标准差: 2.7169e-05, 秩和检验: 2.8646e-11
ABC:最差值: 8.6247e-08, 最优值: 1.2871e-10, 平均值: 8.2424e-09, 标准差: 1.6098e-08, 秩和检验: 2.8646e-11
SSA:最差值: 2.5985e-11, 最优值: 1.7749e-15, 平均值: 1.2003e-12, 标准差: 4.778e-12, 秩和检验: 2.8646e-11
函数:F12
CAOBES:最差值: 0.2931, 最优值: 0.29258, 平均值: 0.29262, 标准差: 9.4814e-05, 秩和检验: 1
BES:最差值: 0.29259, 最优值: 0.29258, 平均值: 0.29258, 标准差: 1.88e-06, 秩和检验: 8.1465e-05
GWO:最差值: 0.29307, 最优值: 0.29258, 平均值: 0.29268, 标准差: 0.00012663, 秩和检验: 0.0014423
PSO:最差值: 0.2975, 最优值: 0.2926, 平均值: 0.29362, 标准差: 0.0010631, 秩和检验: 4.998e-09
ABC:最差值: 0.29448, 最优值: 0.29258, 平均值: 0.29291, 标准差: 0.00039933, 秩和检验: 4.3106e-08
SSA:最差值: 0.30822, 最优值: 0.29258, 平均值: 0.29409, 标准差: 0.0031728, 秩和检验: 2.6784e-06

实验结果表明:CAOBES在全局搜索能力上有很大优势,有效的使算法跳出局部最优,并且拥有更快的收敛速度。

三、参考文献

[1] 石默涵, 陈家清, 高晨峰. 基于混沌优化和自适应反向学习的秃鹰搜索算法[J]. 数学的实践与认识, 2022, 52(6): 149-159.

猜你喜欢

转载自blog.csdn.net/weixin_43821559/article/details/125355735