【Matlab算法】粒子群算法求解二维非线性优化问题(附MATLAB代码)

粒子群算法求解二维非线性优化问题

前言

二维非线性优化问题是指在二维空间中寻找一个点,使得目标函数在该点取得最小(或最大) 值,而这个目标函数是一个非线性函数。数学上,这类问题可以用以下的数学模型来描述:

假设有一个目标函数 f ( x , y ) f(x, y) f(x,y) ,其中 x x x y y y 是优化变量,表示二维空间中的坐标。我们的目标是找到一个点 ( x ∗ , y ∗ ) \left(x^*, y^*\right) (x,y) ,使得 f ( x ∗ , y ∗ ) f\left(x^*, y^*\right) f(x,y) 达到最小值或最大值。

数学模型可以表示为:
 Minimize (或 Maximize)  f ( x , y ) \text { Minimize (或 Maximize) } f(x, y)  Minimize ( Maximize) f(x,y)

其中 f ( x , y ) f(x, y) f(x,y) 是目标函数。此外,通常会有一些约束条件,例如:
g 1 ( x , y ) ≤ 0 g 2 ( x , y ) = 0 h 1 ( x , y ) ≤ 0 \begin{aligned} & g_1(x, y) \leq 0 \\ & g_2(x, y)=0 \\ & h_1(x, y) \leq 0 \end{aligned} g1(x,y)0g2(x,y)=0h1(x,y)0

其中 g 1 ( x , y ) 、 g 2 ( x , y ) g_1(x, y) 、 g_2(x, y) g1(x,y)g2(x,y) h 1 ( x , y ) h_1(x, y) h1(x,y) 是分别表示不等式约束和等式约束的函数。这些约束条件描述了优化问题的可行域,即满足这些条件的点构成了可行解的焦合。

综合起来,二维非线性优化问题可以形式化地表示为:
 Minimize (或 Maximize)  f ( x , y )  subject to  g 1 ( x , y ) ≤ 0 g 2 ( x , y ) = 0 h 1 ( x , y ) ≤ 0 \begin{aligned} \text { Minimize (或 Maximize) } & f(x, y) \\ \text { subject to } & g_1(x, y) \leq 0 \\ & g_2(x, y)=0 \\ & h_1(x, y) \leq 0 \end{aligned}  Minimize ( Maximize)  subject to f(x,y)g1(x,y)0g2(x,y)=0h1(x,y)0

求解这类问题的方法通常涉及使用数学优化算法,例如梯度下降法、牛顿法、拟牛顿法等。这些方法通过迭代逐步调整优化变量,使得目标函数逐渐趋于最小值或最大值,并在满足约束条件的情况下找到最优解。

粒子群优化(PSO)算法是一种基于群体智能的优化算法,它可以用于优化二维线性问题。以下是使用PSO算法解决二维线性优化问题的基本步骤:

  1. 定义适应度函数:将目标函数定义为适应度函数,即 f ( x 1 , x 2 ) = c 1 x 1 + c 2 x 2 f(x_1,x_2) = c_1x_1+c_2x_2 f(x1,x2)=c1x1+c2x2
  2. 初始化种群:设置粒子数量、位置范围、速度范围等参数,随机生成粒子的位置和速度。
  3. 计算适应度:根据粒子的位置计算适应度值。
  4. 更新全局最优解和局部最优解:根据适应度值更新全局最优解和局部最优解。
  5. 更新粒子速度和位置:根据当前位置和速度、全局最优解和局部最优解更新粒子的速度和位置。
  6. 检查终止条件:检查粒子的位置是否达到预设的最大迭代次数或适应度值是否达到预设的最小值,若满足则停止迭代,输出最优解。

在优化过程中,我们可以使用Matlab进行可视化操作,将优化过程和最终结果以图形化的方式展示出来,更直观地观察算法的运行情况和优化效果。

正文

下面我们使用粒子群优化算法求解下列二维非线性函数的优化问题:

f ( x , y ) = x 2 + y 2 − 2 x y + sin ⁡ ( x ) + cos ⁡ ( y ) f(x, y) = x^2 + y^2 - 2xy + \sin(x) + \cos(y) f(x,y)=x2+y22xy+sin(x)+cos(y)

步骤分解

  1. 定义目标函数。目标函数是用来评估模型的性能的指标。对于该问题,目标函数是函数 f(x,y) 的最大值。
function y = myTargetFunction(x)
    y = x(1)^2 + x(2)^2 - 2*x(1)*x(2) + sin(x(1)) + cos(x(2));
end
  1. 定义粒子群的参数。粒子群算法有许多参数,包括粒子数量、惯性权重、学习因子、迭代次数等。
% 主函数
dim = 2; % 粒子维度
swarmSize = 100; % 粒子群大小
maxIterations = 50; % 最大迭代次数
lb = [-5, -5]; % 搜索空间下界
ub = [ 5,  5]; % 搜索空间上界
  1. 初始化粒子。粒子是粒子群算法中的基本单位,它包含位置和速度两个属性。
        r1 = rand(swarmSize, dim);
        r2 = rand(swarmSize, dim);
  1. 开始迭代。在每个迭代中,我们需要进行以下步骤:
    4.1. 计算每个粒子的适应度值。适应度值是用来衡量每个粒子的好坏的指标。对于该问题,适应度值是函数 f(x,y) 的值。
    4.2 更新每个粒子的速度。速度更新公式如下:
    v n e w = w ∗ v + c 1 ∗ r 1 ∗ ( p b e s t − x ) + c 2 ∗ r 2 ∗ ( g b e s t − x ) v_{new}= w * v + c1 * r1 * (pbest - x) + c2 * r2 * (gbest - x) vnew=wv+c1r1(pbestx)+c2r2(gbestx)
    其中, w w w 是惯性权重, c 1 c1 c1 c 2 c2 c2 是学习因子, r 1 r1 r1 r 2 r2 r2 是随机数。
    更新每个粒子的位置。位置更新公式如下:
    x n e w = x + v n e w x_{new} = x + v_{new} xnew=x+vnew

  2. 迭代直到达到最大迭代次数或找到最优解。

代码可视化

通过以下代码将结果可视化:

% 定义二维函数
[X, Y] = meshgrid(linspace(-5, 5, 100), linspace(-5, 5, 100));
Z = X.^2 + Y.^2 - 2*X.*Y + sin(X) + cos(Y);

% 绘制等高线图
contour(X, Y, Z, 50);
hold on;

% 标记最优解的位置
plot(bestPosition(1), bestPosition(2), 'ro', 'MarkerSize', 10, 'MarkerFaceColor', 'r');

% 添加标签和标题
xlabel('x');
ylabel('y');
title('Objective Function Contour Plot with Optimal Solution');

% 显示图例
legend('Objective Function', 'Optimal Solution');

% 显示图形
hold off;

完整代码实现

% 主函数
dim = 2; % 粒子维度
swarmSize = 100; % 粒子群大小
maxIterations = 50; % 最大迭代次数
lb = [-5, -5]; % 搜索空间下界
ub = [ 5,  5]; % 搜索空间上界

% 调用PSO算法
[bestPosition, bestValue] = myPSO(@myTargetFunction, dim, swarmSize, maxIterations, lb, ub);

% 显示结果
disp('最优解:');
disp(bestPosition);
disp('最优值:');
disp(bestValue);

% 定义二维函数
[X, Y] = meshgrid(linspace(-5, 5, 100), linspace(-5, 5, 100));
Z = X.^2 + Y.^2 - 2*X.*Y + sin(X) + cos(Y);

% 绘制等高线图
contour(X, Y, Z, 50);
hold on;

% 标记最优解的位置
plot(bestPosition(1), bestPosition(2), 'ro', 'MarkerSize', 10, 'MarkerFaceColor', 'r');

% 添加标签和标题
xlabel('x');
ylabel('y');
title('Objective Function Contour Plot with Optimal Solution');

% 显示图例
legend('Objective Function', 'Optimal Solution');

% 显示图形
hold off;

% 定义目标函数
function y = myTargetFunction(x)
    y = x(1)^2 + x(2)^2 - 2*x(1)*x(2) + sin(x(1)) + cos(x(2));
end

function [bestPosition, bestValue] = myPSO(targetFunction, dim, swarmSize, maxIterations, lb, ub)
    % 初始化粒子群
    swarm = rand(swarmSize, dim) .* (ub - lb) + lb;
    velocity = zeros(swarmSize, dim);
    personalBest = swarm;
    personalBestValue = zeros(swarmSize, 1);
    for i = 1:swarmSize
        personalBestValue(i) = feval(targetFunction, swarm(i,:));
    end

    % 寻找全局最优
    [globalBestValue, globalBestIndex] = min(personalBestValue);
    globalBest = personalBest(globalBestIndex, :);

    % 迭代更新粒子位置和速度
    for iter = 1:maxIterations
        % 更新粒子位置和速度
        inertiaWeight = 0.5;
        cognitiveCoefficient = 1.5;
        socialCoefficient = 2.0;

        r1 = rand(swarmSize, dim);
        r2 = rand(swarmSize, dim);

        velocity = inertiaWeight * velocity + ...
            cognitiveCoefficient * r1 .* (personalBest - swarm) + ...
            socialCoefficient * r2 .* (globalBest - swarm);

        swarm = swarm + velocity;

        % 边界处理
        swarm = max(swarm, lb);
        swarm = min(swarm, ub);

        % 更新个体最优
        for i = 1:swarmSize
            currentValue = feval(targetFunction, swarm(i,:));
            if currentValue < personalBestValue(i)
                personalBest(i, :) = swarm(i, :);
                personalBestValue(i) = currentValue;
            end
        end

        % 更新全局最优
        [minValue, minIndex] = min(personalBestValue);
        if minValue < globalBestValue
            globalBestValue = minValue;
            globalBest = personalBest(minIndex, :);
        end
    end

    % 返回最优解和最优值
    bestPosition = globalBest;
    bestValue = globalBestValue;
end

执行上述代码后,会输出最优解和目标函数值。

最优解:
   -2.2075   -2.5048

最优值:
   -1.5197

从图中可以看出,函数 f ( x , y ) f(x,y) f(x,y) 具有两个局部极值点,最优解是 (-2.2075, -2.5048),最优值是 -1.5197。
在这里插入图片描述

以下是粒子群算法在迭代过程中包含目标函数等高线图的图形,并且最优解的位置会被标记为红色圆点。这样就可以直观地看到最优解在二维函数图像中的位置了。从图中可以看出,粒子群算法在界限范围内的全局最优解。

猜你喜欢

转载自blog.csdn.net/AlbertDS/article/details/134923156