多目的進化アルゴリズム (MOEA)
多目的最適化問題 (MOP)
図1に示すように、ML(進化的機械学習)の観点から見ると、MOEAのジェネレータは進化によって親よりも優れた性質を持った子孫を再生産することを目的としています。
一方、その弁別器は、評価器の後に親ソリューションと子ソリューションの品質を区別し、その後、次世代に向けて一定数のエリートを選択することを目的としています。
1) スケールアップ MOP と学習可能な MOEA の一般的な定義と分類。
2)スケールアップ目的空間を有するMOP、すなわち多目的最適化問題(MaOP)を扱うための学習可能な進化的識別器に関する取り組み。
3)スケールアップ探索空間を有するMOP、すなわち大規模MOP(LMOP)を解決するための学習可能な進化ジェネレータに関する取り組み。
4) 関数評価のスケールアップコストを伴う MOP、すなわち高価な MOP (EMOP) によってもたらされる課題を軽減するための学習可能な評価器に関する取り組み。
5)異なるMOPの数を順次または同時にスケールアップする、すなわち、シーケンシャルMOP(SMOP)およびマルチタスクMOP(MMOP)を最適化する際に、効率を改善できる近道を見つけるための学習可能な進化的伝達モジュールに関する取り組み。
1) 拡張多目的最適化問題 (MOP) および学習可能な多目的進化アルゴリズム (MOEA) については、一般的な定義と分類が与えられます; 2) 拡張オブジェクト空間を持つ MOP、つまり多目的最適化問題 (MaOP) については
、学習ベースの進化的識別器に関する研究が実行されます;
3) 学習ベースの進化的ジェネレータに関する研究が、拡張された探索空間を持つ MOP、すなわち大規模多目的最適化問題 (LMOP) に対して実行されます; 4
)拡張関数評価を備えた MOP 高価な MOP、つまり高価な多目的最適化問題 (EMOP) は、それらによってもたらされる課題を軽減するために学習ベースの推定量に基づいて研究されます。5) 逐次 MOP (SMOP) およびマルチタスクの
場合MOP (MMOP) は、学習された進化的伝達モジュールの研究に基づいており、多数の異なる MOP を順次または同時に最適化する際に効率を向上させ、より良い結果を達成できるショートカットを見つけます。