適応フィルターの原理 - スパースクラス適応アルゴリズム (PNLMS)

エコー パス モデルの分析を通じて、エコー エネルギーのよりアクティブな係数が時間領域に集められ、その割合は非常に小さく、それらの値には有効な値がわずかしかないことがわかります。ゼロではなく、ほとんどがゼロまたはゼロに近いエコーパスの疎な特性(時間領域での信号処理に基づく特性)です。

エコーのインパルス応答は疎という特徴があり、その係数の絶対値がゼロより大きくなるのは短期間だけであり、残りは限りなくゼロに近くなります。実際、実際の役割を果たし、エコー パス推定の精度を決定するのは、数千次のフィルター係数のうちの数十万だけです。したがって、エコー パスのインパルス応答が長い場合、基本的な LMS および NLMS アルゴリズムの収束速度では一般に要件を満たすことができず、より高速な収束速度を備えた適応フィルタリング アルゴリズムを開発する必要があります。エコーパスのスパース性に対して、Duttweiler氏は比例適応の考え方を導入し、フィルターの重みベクトルを比例的に分配する比例正規化最小二乗平均アルゴリズム(Proportionate Normalized Least Mean Square、PNLMS)を提案しました。非常に重要な意味を持つ。 

PNLMS アルゴリズムには、初期収束速度の利点があり、特にエコー パスがまばらな場合、その収束速度はより明らかです。PNLMS アルゴリズムは、フィルターのタップ スパース性に比例する可変ステップ サイズ パラメーターを使用してアルゴリズムの収束速度を調整し、タップ スパース比の値を使用して現在の重みスパース性が属するアクティブ状態を判断します。割り当てられたステップ サイズ 違いもあります. アクティブなタップ係数にはより大きなステップ サイズ パラメーターが割り当てられ、収束を高速化できますが、非アクティブなタップ係数はその逆であり、アルゴリズムの定常誤差は、ステップサイズパラメータを小さくします。各フィルター タップには異なる推定値が割り当てられ、アルゴリズムの定常状態の収束が明らかに向上します。フィルターの重み更新式は次のように表すことができます。 

式中の G(n) は、フィルターの各重み係数にステップ重みを割り当てるための N 次元の対角ゲイン行列で、次のように表されます。

 

式では

 

 

利点: このアルゴリズムは、スパース エコー パスの初期段階での収束速度が速く、同時に定常状態誤差を低減します。

短所:

  1. 比例ステップ サイズ パラメーターの選択により固定値が導入されるため、推定誤差が蓄積され、最終的にアルゴリズムの収束速度が後の段階で遅くなり、時間内に収束できない可能性があります。
  2. NLMS アルゴリズムと比較すると、アルゴリズムの複雑さが増加します。
  3. また、エコーパスが疎でない場合、NLMSアルゴリズムよりも収束速度が遅くなります。

改善された PNLMS

PNLMS アルゴリズムの収束速度の向上はエコー パスのインパルス応答が高度なスパース性を持っているという前提に基づいているため、一部の低スパース シナリオでは、その効果は NLMS アルゴリズムほど良くありません。 、反復がさらに進むと、その収束速度が大幅に低下します。この問題を解決するために、PANaylor は改良されたIPNLMS (改良型 IPNLMS、IIPNLMS) アルゴリズムを提案しました。PNLMS アルゴリズムと NLMS アルゴリズムの利点を組み合わせた IPNLMS アルゴリズムでは、次の 2 つに基づいてアルゴリズムの割合を調整できるパラメータ θ が採用されています 

したがって、式 1 の右半分の最初の項目は IPNLMS アルゴリズムの NLMS コンポーネントとみなすことができ、2 番目の項目は PNLMS コンポーネントとみなすことができます。θ=1 の場合、IPNLMS アルゴリズムは PNLMS アルゴリズムに縮退し、θ=-1 の場合、IPNLMS アルゴリズムは NLMS アルゴリズムに縮退します。IPNLMS アルゴリズムには、NLMS アルゴリズムと PNLMS アルゴリズムのコンポーネントが含まれており、アルゴリズムの比例パラメータの調整の存在により、2 つのアルゴリズムのコンポーネントが調整され、収束速度が適度な状態に保たれます。

PNLMS++ 

PNLMS++ アルゴリズムは、サンプリング周期ごとにNLMS アルゴリズムと PNLMS アルゴリズムを交互に実行することで収束速度の向上を実現しますただし、PNLMS++ アルゴリズムは、エコー パスがスパースまたは高度に非スパースである場合にのみ適切に実行されます。

参考リンク:

https://www.cnblogs.com/LXP-Never/p/11773190.html

おすすめ

転載: blog.csdn.net/qq_42233059/article/details/131351264