インテリジェントな最適化アルゴリズムの粒子群モデル (Python ケース コードを含む)

粒子群最適化モデルの概要

        粒子群最適化 (PSO) は、群知能に基づく最適化アルゴリズムで、1995 年にアメリカの社会心理学者のジェームス ケネディとラッセル エバーハートによって初めて提案されました。 PSO は、鳥の群れや魚の群れなど、自然界における集団行動の観察からインスピレーションを得ています。

305c460e9e2e4d24af3bd08612fa1ecd.png

        PSO の基本的な考え方は、グループ内の個人のコラボレーションと情報共有をシミュレーションすることによって、問題に対する最適な解決策を見つけることです。 PSO では、個人は「粒子」と呼ばれ、各粒子は探索空間内の潜在的な解決策を表します。これらの粒子は探索空間内を移動することで最適解を見つけますが、その移動方向と速度は個人の経験とグループの経験に影響されます。

PSOの基本モデル

  1. パーティクルの表現: 各パーティクルには位置ベクトルと速度ベクトルがあり、それぞれ探索空間内の現在の位置と移動速度を表します。
  2. 適応度関数: 問題の目的関数は適応度関数として定義され、粒子の目標はこの適応度関数を最小化または最大化することです。
  3. 個別最適解: 各粒子は探索空間内で見つけた最適な位置を記憶します。これは個別最適解と呼ばれます。
  4. 大域的最適解: 粒子群全体の中で、大域的最適解、つまりグループ全体で最も適合度が高い位置を記憶する粒子が 1 つ存在します。
  5. 更新ルール: パーティクルは、特定の更新ルール (通常は個人のエクスペリエンスとグループのエクスペリエンスを含む) に従って位置と速度を調整します。

更新ルールの一般的な形式は次のとおりです。

8f3bd574abad49b3a56d862d1ba6dead.png

で:

b4fc612da3864a5992796b78172f1619.png

        このアルゴリズムは、さまざまな問題、特に連続最適化問題で良好な結果を達成しています。 PSO を使用する場合、粒子の数、学習係数、慣性の重みなど、特定の問題に応じてアルゴリズムのパラメーターを調整する必要があります。

 

84252ebf3e2e45d9a1af150bd8baaaf4.png

粒子群の最適化をいつ使用するか?

        粒子群最適化 (PSO) は、最適化問題を解決するために使用される群インテリジェンス アルゴリズムです。 PSO はさまざまな最適化問題に適していますが、その特有の利点と適用可能なシナリオにより、場合によっては PSO の方が適しています。

        連続最適化問題: PSO は主に、目的関数が連続微分可能である連続最適化問題を解くために使用されます。これには、機械学習モデルのパラメーターの最適化、ニューラル ネットワークの重みの調整、信号処理、制御システム設計など、多くの工学的および科学的アプリケーションが含まれます。

        制約のない問題: PSO は問題に対する制約が緩いため、制約のない最適化問題に適しています。問題に複雑な制約がある場合は、PSO を改善するか、制約のある問題の処理により適した他の最適化アルゴリズムを選択する必要がある場合があります。

        高次元空間: PSO は高次元検索空間で優れたパフォーマンスを発揮します。多数の変数を伴う問題の場合、PSO は検索空間を効果的に探索し、全体的な最適解を見つけることができます。

        グローバル最適化: PSO のグループ コラボレーション メカニズムにより、グローバル最適化問題の収束が向上します。これは、特に探索空間が複雑である場合、または複数の局所最適解がある場合に、局所最適解で行き詰まるのを避けるのに役立ちます。

        シンプルな実装: PSO の実装は比較的シンプルであり、多くのパラメータ調整は必要ありません。これにより、使いやすく理解しやすい最適化アルゴリズムとなり、初心者やアルゴリズムの詳細にあまり敏感でないアプリケーション シナリオに特に適しています。

        動的環境: PSO は、動的環境における最適化問題に対する優れた適応性を備えています。 PSO はリアルタイム更新機能により、目的関数または検索空間の変化に迅速に適応できます。

        PSO は多くの場合良好に実行されますが、問題によっては他の最適化アルゴリズムほど優れていない場合があります。そのため、最適化アルゴリズムを選択するときは、特定の問題の特性と長所と短所に基づいて合理的な選択を行う必要があります。アルゴリズム。

ケースコード1

        以下は、粒子群最適化アルゴリズムの簡単な Python サンプル コードです。この例は単純な単一変数最適化問題であり、目標は関数 f(x)=x^2+5 を最小化することです。

import random

# 粒子群优化算法
def particle_swarm_optimization(obj_func, num_particles, num_iterations):
    # 初始化粒子群
    particles = [{'position': random.uniform(-10, 10),
                  'velocity': random.uniform(-1, 1),
                  'pbest_position': 0,
                  'pbest_value': float('inf')} for _ in range(num_particles)]

    # 寻找全局最优解的粒子
    gbest_particle = min(particles, key=lambda p: obj_func(p['position']))

    # PSO参数
    inertia_weight = 0.5
    cognitive_coefficient = 1.5
    social_coefficient = 1.5

    # 开始优化迭代
    for _ in range(num_iterations):
        for particle in particles:
            # 更新速度和位置
            r1, r2 = random.uniform(0, 1), random.uniform(0, 1)
            particle['velocity'] = (inertia_weight * particle['velocity'] +
                                    cognitive_coefficient * r1 * (particle['pbest_position'] - particle['position']) +
                                    social_coefficient * r2 * (gbest_particle['pbest_position'] - particle['position']))
            particle['position'] += particle['velocity']

            # 更新个体最优解
            current_value = obj_func(particle['position'])
            if current_value < particle['pbest_value']:
                particle['pbest_value'] = current_value
                particle['pbest_position'] = particle['position']

                # 更新全局最优解
                if current_value < gbest_particle['pbest_value']:
                    gbest_particle = {'pbest_position': particle['pbest_position'],
                                      'pbest_value': particle['pbest_value']}

    return gbest_particle['pbest_position']

# 示例问题:最小化函数 f(x) = x^2 + 5
def objective_function(x):
    return x**2 + 5

# 运行粒子群优化算法
best_solution = particle_swarm_optimization(objective_function, num_particles=30, num_iterations=100)

# 打印结果
print("最优解:", best_solution)
print("最优解对应的目标函数值:", objective_function(best_solution))

 

        これは単なる例であり、実際のアプリケーションでは問題の複雑さに応じてさらに調整や改善が必要になる場合があります。実際の問題では、より良いパフォーマンスを得るために粒子の数、反復回数、パラメータなどを調整する必要があります。

ケースコード2

import numpy as np
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D


def fit_fun(x):  # 适应函数
    return sum(100.0 * (x[0][1:] - x[0][:-1] ** 2.0) ** 2.0 + (1 - x[0][:-1]) ** 2.0)


class Particle:
    # 初始化
    def __init__(self, x_max, max_vel, dim):
        self.__pos = np.random.uniform(-x_max, x_max, (1, dim))  # 粒子的位置
        self.__vel = np.random.uniform(-max_vel, max_vel, (1, dim))  # 粒子的速度
        self.__bestPos = np.zeros((1, dim))  # 粒子最好的位置
        self.__fitnessValue = fit_fun(self.__pos)  # 适应度函数值

    def set_pos(self, value):
        self.__pos = value

    def get_pos(self):
        return self.__pos

    def set_best_pos(self, value):
        self.__bestPos = value

    def get_best_pos(self):
        return self.__bestPos

    def set_vel(self, value):
        self.__vel = value

    def get_vel(self):
        return self.__vel

    def set_fitness_value(self, value):
        self.__fitnessValue = value

    def get_fitness_value(self):
        return self.__fitnessValue


class PSO:
    def __init__(self, dim, size, iter_num, x_max, max_vel, tol, best_fitness_value=float('Inf'), C1=2, C2=2, W=1):
        self.C1 = C1
        self.C2 = C2
        self.W = W
        self.dim = dim  # 粒子的维度
        self.size = size  # 粒子个数
        self.iter_num = iter_num  # 迭代次数
        self.x_max = x_max
        self.max_vel = max_vel  # 粒子最大速度
        self.tol = tol  # 截至条件
        self.best_fitness_value = best_fitness_value
        self.best_position = np.zeros((1, dim))  # 种群最优位置
        self.fitness_val_list = []  # 每次迭代最优适应值

        # 对种群进行初始化
        self.Particle_list = [Particle(self.x_max, self.max_vel, self.dim) for i in range(self.size)]

    def set_bestFitnessValue(self, value):
        self.best_fitness_value = value

    def get_bestFitnessValue(self):
        return self.best_fitness_value

    def set_bestPosition(self, value):
        self.best_position = value

    def get_bestPosition(self):
        return self.best_position

    # 更新速度
    def update_vel(self, part):
        vel_value = self.W * part.get_vel() + self.C1 * np.random.rand() * (part.get_best_pos() - part.get_pos()) \
                    + self.C2 * np.random.rand() * (self.get_bestPosition() - part.get_pos())
        vel_value[vel_value > self.max_vel] = self.max_vel
        vel_value[vel_value < -self.max_vel] = -self.max_vel
        part.set_vel(vel_value)

    # 更新位置
    def update_pos(self, part):
        pos_value = part.get_pos() + part.get_vel()
        part.set_pos(pos_value)
        value = fit_fun(part.get_pos())
        if value < part.get_fitness_value():
            part.set_fitness_value(value)
            part.set_best_pos(pos_value)
        if value < self.get_bestFitnessValue():
            self.set_bestFitnessValue(value)
            self.set_bestPosition(pos_value)

    def update_ndim(self):

        for i in range(self.iter_num):
            for part in self.Particle_list:
                self.update_vel(part)  # 更新速度
                self.update_pos(part)  # 更新位置
            self.fitness_val_list.append(self.get_bestFitnessValue())  # 每次迭代完把当前的最优适应度存到列表
            print('第{}次最佳适应值为{}'.format(i, self.get_bestFitnessValue()))
            if self.get_bestFitnessValue() < self.tol:
                break

        return self.fitness_val_list, self.get_bestPosition()

if __name__ == '__main__':
    # test 香蕉函数
    pso = PSO(4, 5, 10000, 30, 60, 1e-4, C1=2, C2=2, W=1)
    fit_var_list, best_pos = pso.update_ndim()
    print("最优位置:" + str(best_pos))
    print("最优解:" + str(fit_var_list[-1]))
    plt.plot(range(len(fit_var_list)), fit_var_list, alpha=0.5)

 

 

 

 

 

 

おすすめ

転載: blog.csdn.net/m0_56694518/article/details/134934279