論文翻訳 - STUN: カーネル スケジューラ パラメータの強化学習ベースの最適化 5 (3)

前回記事:論文翻訳と朗読 - STUN: Reinforcement-Learning-Based Optimization of Kernel Scheduler Parameters 5 (2)の続きです。

5. 評価

5.3 マイクロベンチマーク分析

STUN がパフォーマンスに及ぼす影響を実証するために、STUN を使用してカーネル スケジューラのマイクロベンチマークである Hackbench を最適化しました。Hackbench 実行オプションには 120 プロセスと 1000 回の反復があります。フィルタリング プロセスを通じて、スケジューラ ポリシーは「通常」を選択し、パラメータ kernel.sched_latency_ns および kernel.sched_wakeup_granularity_ns を最適化変数として使用します。学習結果の最適値は以下の通りです。

  • スケジューラポリシー:通常;
  • kernel.sched_latency_ns = 20,100,000;
  • kernel.sched_wakeup_granularity_ns = 190,000,000。

学習の結果、Hackbench の実行時間がデフォルト設定の 2.72 ~ 1.95 秒と比較して 27.7% 短縮されたことがわかりました。図 6 は、学習プロセスの各ステップの Hackbench 実行時間を示しています。

学習プロセス中、Hackbench の結果はランダムに増減しますが、16000 ステップを超えると、学習プロセスは安定したパフォーマンスを示します。図 7 は、学習プロセス中の最適化に使用される 2 つのパラメータの状態変化を示しています。

各パラメータは学習プロセス中に最初はランダムに増減しますが、STUN は最終的に最適な値を見つけます。

Je suppose que tu aimes

Origine blog.csdn.net/phmatthaus/article/details/131458645
conseillé
Classement