hslogic_Image Mosaic--デジタル画像モザイク技術

パノラマ(Panorama)、または画像モザイク(Mosaic)技術はカメラ機器の視野角によるもので、大きな写真を撮ることは不可能です。この記事では、スプライシング合成技術の説明に焦点を当てます。最初に、スプライシングの主な目的に焦点を当て、次にスプライシングプロセスとコアの問題、画像の登録と方法、ピクセルレベルの画像融合とアルゴリズムを簡単に紹介し、最後に2次元ウェーブレット融合技術に焦点を当てて説明します。研究。

      

1.スプライシングの主な目的

カメラなどの撮像機器の視野角や大きさの制限により、一度に大きな写真を撮ることができないという問題を画像スティッチ技術で解決することができます。コンピューターを使って自動で広角画像をマッチング・合成するので、実使用で幅広い用途に使えます。同時に、それに関する研究は、画像処理に関連するアルゴリズムの研究も促進しました。    

これは、軍事画像、特に赤外線画像の収集と表示、医療画像の登録とスプライシング、3次元仮想シーンのシミュレーション、デジタル画像の圧縮、航空写真とリモートセンシング画像のスプライシングなどの実用的なアプリケーションで大きな価値があります。

たとえば、多くのオフィススキャナーは主にA4またはA3形式です。このようなスキャナーを使用して、A0以上の画像(チャートなど)をスキャンして入力すると、無力に見えます。特殊な大判ローラースキャナーはありますが、この種のスキャナーは特殊な機器であり、価格も高く、一般の企業や機関、科学研究機関では購入できません。巨大な画像の入力を実現するために既存の機器をどのように使用するかは、私たちが研究および解決する必要がある重要な課題です。コンピュータの処理能力は常に向上していますが、価格は下がり、ユーザー数はますます増えています。この問題をソフトウェアで解決するには、A3またはA4形式のスキャナーを使用して、入力画像をブロック単位でスキャンし、保存します。コンピューターのハードディスク、および画像合成プログラムを使用して画像を元の画像に合成するため、アプリケーションの見通しは非常に広いです。このアプリケーションは、デジタルカメラで撮影した写真にも適しています。

2.画像​​モザイク技術のプロセスと主要な問題

スプライシングプロセス:

 

入力画像

前処理

統一された座標変換

画像登録

画像融合

パノラマモザイク

 

 

 

 

 

画像合成技術の基本的なプロセスを図に示します。まず、合成する画像を取得し、前処理(フィルタリングなど)を行った後、統一座標変換を実行します。つまり、すべての画像シーケンスが統一座標系に変換され、さまざまな変換方法が対応します。さまざまなスプライシングマニホールドの後に画像のレジストレーションと画像の融合が続き、最後にパノラマモザイク画像が取得されます。このうち、前処理と統一座標変換の2つのステップは不要であり、特定の条件に応じて選択できます。

核となる問題:画像合成技術には、主に2つの主要なリンク、つまり画像登録と画像融合が含まれます。

3、画像登録

画像の位置合わせは、部分的に重複するシーケンス画像の重複する位置と範囲を見つけることです(画像の位置合わせとも呼ばれます)。例として2つの画像を取り上げます。つまり、2つの長方形の領域AとBがあるとします。Bに領域A '、A'、Aが含まれていることがわかっているため、Bの位置を見つけます。画像スティッチング技術と組み合わせると、既存の画像登録方法は次の2つのカテゴリに分類できます。

(1)ローカルアライメント技術

従来の画像スティッチングや仮想環境制作の応用分野では、画像レジストレーション技術における相関法やフーリエ変換が適用できます。シーン表現の分野では、画像間に平面射影変換やアフィン変換があるため、対応する点写像や運動モデル法が利用でき、中でも運動モデル法の画像位置合わせ技術は近年急速に発展している方法です。局所アライメント技術の主な研究手法を以下にまとめます。

    (1)特徴に基づく画像の位置合わせ

特徴法は一般的に使用される位置合わせ方法であり、画像の特徴に基づいており、特定の評価関数と組み合わせて2つの画像の重複領域を見つけます。一般的な位置合わせ方法は、画像の幾何学的特徴に基づいており、幾何学的特徴は、エッジやコーナーなどの低レベルの特徴と、オブジェクト認識や特徴間の関係などの高レベルの特徴に分けられます。低レベルの機能に基づく位置合わせアルゴリズムは、通常3つのステップに分かれています。まず画像をフィルタリングして機能セットを抽出し、次にこれらの機能セットを使用して2つの画像のおおよその位置合わせ位置を検索し、最後に変換の反復を調整します。Wen[61は2次元ガウスぼかしでフィルターできますエッジモデル、コーナーモデル、頂点モデルなどの低レベルのフィーチャモデルを取得します。角度モデルは座標点よりも多くの情報を提供するため、論文[7]はファニー角度モデルに基づく画像配置アルゴリズムを提案し、論文[81]は幾何学的点特徴に基づいてマッチングを最適化し、[91]ウェーブレット変換を使用して予約済みエッジを抽出します(エッジを保持する)画像配置の視覚モデル。高レベルの機能に基づく画像の位置合わせでは、低レベルの機能間の関係を使用するか、認識されたオブジェクトを介して位置合わせを行います。記事[10]では、特徴画像の関係図を使用して画像の位置合わせを実行しています。特徴ベースの画像の位置合わせは、特徴の検出と抽出に依存しています。機能が明確でない場合は、位置合わせに失敗する可能性があります。

(2)周波数領域に基づく位置合わせ方法

この方法は、フーリエ変換の優れた特性を利用しています。つまり、関数の変換、回転、スケーリングは、周波数領域で対称性を持っています。画像の平行移動の場合、2つの画像のパワースペクトルのフーリエ変換を計算すると、平行移動の量だけがゼロではないインパルス関数が得られます。回転の場合、極座標で表すことができるため、画像の回転が画像の平行移動に変換され、次に、画像間の回転角度が同じ方法で計算されます。画像間に平行移動だけでなく回転もある場合、2つのステップで計算します。最初に回転を計算し、次に平行移動を計算します。この方法は、小さな移動、回転、ズームを使用した画像登録に非常に適しています。ハードウェアサポートと高速アルゴリズムを備えているため、計算速度が速く、相関ノイズと周波数依存ノイズを克服でき、複数のセンサーによって収集された画像や光源の変化に適しています。

(3)運動モデル法

I.メインモーションモデル

現在一般的に使用されている方法は、異なるワールドモデルとモーションモデルを通じて2つの画像間の関係を確立するモーションモデル法です。いくつかの主要なモーションモデルを以下に示します。ここで、m;(i = 1,2、。、8)は射影変換パラメーター、(x、y、l)と(x、y、w)は2つの隣接する画像間の対応する点uとuです。二次座標。最初のタイプは、フラットシーンに基づくモーションモデルです。シーンがフラットの場合、8パラメータパースペクティブモデルが使用されます

     (2-1)

これを6パラメータのアフィンモデルに簡略化できる場合があります。

 

2番目のタイプは、固定小数点サラウンドシューティングに基づくモーションモデルです。

 

このうち、[wx、wy、wz]は角速度、fはカメラの焦点距離です。

3番目のタイプは、平面プラス視差モデルに基づいています

従来の3Dスポーツフィールドは、回転、並進、シーン深度で構成されるパラメトリックスポーツフィールドです。ただし、これらのパラメーターフィールドの画像を調整するには、カメラの内部パラメーターを知っている必要があります。上記の2つのモデルに加えて、他のモデルでは画像を調整するときに画像に歪みが発生します。私たちが紹介した3Dモデルは、Kumar:らによって提案された平面パラメーターフィールドに基づく平面プラス視差モデルです。彼らは風景が実際の平面または仮想平面にあると考えています。

2つの画像I0(x)、I1(X)を想定します。これらの画像間の関係は、モーションオフセットで表されます。

I1(X)= I0(XU)、ここでU =(Ux、Uy)の場合、そのパラメーターモデルは次のとおりです。

 

 

このうち、r = H /(Pz * T1)、H:ポイントから平面までの垂直距離、T1:最初のカメラから平面までの距離、T2:2つのカメラの並進ベクトル、P2:深度、.f:カメラの焦点距離。

このモデルは、主にさまざまな深度でのシーンのセグメンテーションが難しい問題であるため、任意のシーン画像の位置合わせに使用するのが難しいため、フラットシーン上のまばらな移動オブジェクトの検出に一般的に使用されます。

2.モデルパラメータを解く方法

評価関数は通常、SSD(平方差の合計)強度の平方差を使用します。

 

パラメータの最適値を解決するには、主に次の方法があります:

1つ目は、反復解にNewton-Gaussian法またはLevenberg-Marquart法を使用する方法です。この方法は、信頼性が高く、安定しており、精度が高く、欠点には初期対応点の手動入力が必要です。

2つ目は、1次のテイラー公式を使用してモーションフィールドを近似し、最小二乗法を使用してそれを解決する方法です。この方法は高速な反復を必要としませんが、精度は高くありません。

3番目のタイプであるレベル推定法は、主にいくつかのピクセル偏差がある画像用で、次の4つの部分で構成されています。

(1)2つの画像のピラミッドを構築します。

(2)動き推定計算。

(3)画像ワーピング操作。

(4)パラメータを粗いものから細かいものまで徐々に調整します。

4番目のタイプ、準パラメトリックモデル推定は、主に平面+視差モデル用で、次の3つの部分が含まれます。

(1)画像の平坦な領域をセグメント化してマークアウトします。

(2)2つの画像の平面パラメーター変換を推定します。

(3)階層推定法を使用して、視差ベクトルと並進ベクトルT <

漸進的に複雑なモデルを解く5番目のタイプは、主に画像の偏差が数ピクセルより大きい平面投影に使用されます

変換パラメータの推定には、次の3つの部分が含まれます。

(1)画像の一部を使用して、変換パラメーターを推定します。

(2)変換パラメータをアフィンパラメータの初期推定値として使用し、画像の大部分を使用してアフィンパラメータを推定します。

(3)初期推定としてアフィンパラメータを使用し、すべての画像を使用して平面投影変換パラメータを推定します。

漸進的に複雑なモデルを階層推定と組み合わせると、計算量を減らすことができます。この方法の使用には特定の条件があります。つまり、カメラが平らなシーンを撮影しているときは、おおよその並進を行い、回転角度は小さくなければなりません。カメラが固定点で撮影しているときは、おおよそパン(Y軸周り)またはピッチ(x軸周り)を行う必要があります。他の軸を中心とした回転はできるだけ小さくする必要があります。

(含む:①特徴に基づく画像の位置合わせ、②周波数領域に基づく位置合わせ方法、③運動モデル方法)

(2)グローバルアライメント技術

グローバルアライメントテクノロジーは、画像スティッチングの統合テクノロジーです。大きな画像を形成するには、モザイクは、ステッチされるすべての画像を画像シーケンスの参照フレームに変換する必要があり、参照フレームから遠く離れた画像から参照フレームへの変換を解決する方法は、それらの間の変換ですが、これにより累積エラーが発生し、最終的な画像の偏差とゴーストが大きくなります。グローバルアライメントテクノロジーは上記の問題を解決するためのもので、既存のグローバルアライメントテクノロジーには次の4つのカテゴリが含まれます。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1.マルチフレームの調整と調整

 

 

 

最初に画像フレームAiをAjに変換し、次にPjを使用してそれを参照フレームA1に投影することもできます。

Pi = AijP(j <i)、そのような方程式はすべて結合されて、大規模なスパース線形方程式システムを形成します。過決定なので、最小二乗法で解くことができます。この方法は効果的ですが、作業負荷は比較的大きく、余分な2つの重複するフレームの正確な配置変換を解決する必要があります。

3.対応点に基づくマルチフレーム調整技術

重なり合った画像から対応点の集合を抽出して参照枠に投影する理論的には、この対応点の集合は参照枠上の点に対応する。ただし、蓄積されたエラーのため、それらを重ねることはできません。Shum Hは、参照フレーム上の点を選択して、各点からの距離または角度を新しい対応点として最小化し、新しい点のセットを使用してパラメーター変換を調整し、複数の画像のスティッチングの累積誤差を減らすことを提案しています。

第四に、モザイク手法を徐々に拡大する

フレームからモザイクへの変換方法が採用されています。つまり、画像のモザイクが徐々に拡大されます。この方法では、参照フレームとして設定された画像から幾何学的トポロジーの中間フレームを選択し、中間フレームから周辺まで最大の重複領域を持つフレームを見つけて、それをモザイクに配置します。ミ-1。、フレームfiを検索し、fiとMi-1をより大きなMiに位置合わせします。この方法には高い位置合わせ品質がありますが、欠点は、中央の特定のフレームの位置合わせ効果が低いため、後続のフレームの位置合わせ効果が含まれ、画像全体がモザイクになることです。品質が低下します。次に、隣接するフレームとの最大の重複フレームを検索する必要があります。

第四に、画像融合

画像融合とは、画像を研究対象とするデータ融合です。同じシーンの2つ以上の画像を異なる帯域で、または異なるセンサーから同時に処理して、合成画像を形成し、より多くの画像を取得することを指します。ターゲット情報の画像処理プロセス。画像融合は、ピクセルレベル、特徴レベル、決定レベルの3つのレベルにも分かれています。さまざまなレベルの融合は、融合前にセンサーデータが処理された程度を示します。所定のデータ融合システムには、3つのレベルすべてのデータの入力が含まれる場合があります。ピクセルレベルの融合は、収集された生データレイヤーで直接実行される融合です。これは最低レベルの統合です。利点は、可能な限り多くのフィールドデータを維持し、詳細な情報を提供できることです。制限は次のとおりです。処理されるデータの量が多く、リアルタイムパフォーマンスが低い、データ通信の量が多い、干渉防止機能が低い。マルチソースの画像合成、画像解析、理解の分野で使用できます。機能レベルの融合では、最初にセンサーからの元の情報から機能を抽出し、次に機能情報を包括的に分析して処理します。意思決定レベルの融合は、コマンドと制御の意思決定の基礎を提供できる高水準の融合です。意思決定レベルの融合は、特定の意思決定目標に直接向けられた3レベルの融合の最終結果であり、融合結果は意思決定レベルに直接影響します。いくつかの一般的なピクセルレベルの画像融合アルゴリズムを次に示します。

①彼の変容

HIS変換は、マルチソースのリモートセンシングデータを融合するために最も一般的に使用される方法であり、異なる空間解像度のリモートセンシング画像間の幾何情報の重ね合わせを実現できます。まず、RGB、カラースペースの3バンドマルチスペクトルイメージをHISスペースの3つの量、つまり色相(H)、輝度(I)、彩度(S)に変換します。明るさ(I)は空間情報を表し、色相(H)はスペクトル情報を表します。次に、高空間解像度画像を引き伸ばして、輝度コンポーネント(I)と同じ平均と分散を持たせます。最後に、輝度コンポーネント(I)を引き伸ばされた高空間解像度画像に置き換え、同じ色調にします( H)、彩度(S)はHIS逆変換を実行して融合画像を取得します。

②PCA法

PCA変換、つまり主成分変換の考え方はHIS変換に似ています。プロセスは次のとおりです。最初に3つ以上のバンドデータを使用して画像間の相関係数行列を取得し、相関係数行列から固有値と固有ベクトルを計算してから、それぞれを取得します。主成分画像。高空間解像度の画像データは、最初の主成分画像データと同じ平均と分散を持つようにコントラストが引き伸ばされます。最後に、引き伸ばされた高空間解像度画像が最初の主成分を置き換えます。逆PCA変換を介して他の主成分と組み合わせて、融合画像を取得します。第1主成分をス​​トレッチされた高空間解像度の画像で置き換えることの前提は、2つが同じに近いことです。これは、マルチバンドスペクトル画像がPCAによって変換され、各帯域の空間情報が第1主成分に集中するためです。スペクトル情報は他のコンポーネントに保持されます。PCA融合法は、元のマルチスペクトル画像のスペクトル特性を維持する点でHIS融合法より優れており、PCA法のスペクトル特性の歪みは小さい。また、HISフュージョン法とは異なり、PCAフュージョン法は、3バンドのマルチスペクトル画像のみを同時にフュージョンに使用でき、3バンド以上のマルチスペクトル画像を融合できます。

③HPF法

ハイパスフィルター処理方法では、最初に小さな空間ハイパスフィルターを使用して高空間解像度の画像をフィルター処理します。フィルター処理の結果は、空間情報に関連する高周波情報を保持し、ほとんどのスペクトル情報を除外します。そこで、各マルチスペクトル画像データにハイパスフィルタリングの結果を画素ごとに加算し、高解像度画像の空間情報と高スペクトル解像度画像の空間情報を融合させます。

HIS変換、PCA変換、およびHPFメソッドの重要な機能は、融合画像の空間解像度を改善しながら、スペクトル情報の歪みと変化をある程度減らすことができることです。

④画像ピラミッド

画像ピラミッドはもともと、多重解像度の画像分析を説明するために、また人間の視覚における両眼融合のモデルとして使用されていました。一般的な画像ピラミッドは、各画像がローパスフィルタリングとその前のサブサンプリングされたサンプルで構成される画像シーケンスです。サンプリングにより、分解の各レベルで、画像のサイズが2つの空間方向に2つに分割され、マルチ解像度の信号表現が生成されます。画像ピラミッド法は、2つのピラミッドを持つ信号表現になります。平滑化されたピラミッドには平均化されたピクセル値が含まれ、差分ピラミッドにはピクセルの差分、つまりエッジが含まれます。したがって、差分ピラミッドは、入力画像の多重解像度エッジ表現と見なすことができます。

ピラミッドのサイズはソース画像の4/3であり、データ量が増加します。ピラミッドの再構築では、特にマルチソース画像に明らかな違いがある場合、フュージョン画像にパッチが含まれる可能性があるため、不安定になる可能性があります。

⑤ウェーブレット変換

画像ピラミッドに似た信号解析方法は、ウェーブレット変換です。主な違いは、画像ピラミッドによってデータが増加し、ウェーブレット分解が非冗長になるため、画像がウェーブレットによって分解された後のデータの総量が増加しないことです。

ウェーブレット変換は、元の画像を異なる空間解像度と周波数領域特性を持つ一連の部分空間に分解し、元の画像の局所的な変化特性を完全に反映できます。ウェーブレットベースの融合の基本原理は、高解像度空間データの分解レベルで低解像度スペクトルデータをマージすることです。これは、対応する係数の置換、追加、または選択によって実現できます。最後に、統合されたフュージョンコンポーネントは、低解像度バンドのスペクトル情報と高パンクロマティックバンドの空間解像度を組み合わせた画像を生成します。

PCA、HISなどの従来のデータ融合方法と比較して、ウェーブレット融合モデルは、入力画像のさまざまな特性に応じてウェーブレットベースとウェーブレット変換の数を合理的に選択できるだけでなく、融合操作中に実際のニーズに応じて両側を導入することもできます。詳細情報。したがって、より適切で実用性があり、統合効果が高いことを示します。さらに、実装プロセスの柔軟性の評価から、HIS変換は同時に3つのバンドでのみフュージョン操作を実行できる必要があり、PCA変換の入力画像は3つ以上である必要がありますが、ウェーブレットメソッドは単一のバンドまたは複数のバンドを完了することができます。 2つのバンドの融合操作。ピクセルレベルの画像融合で一般的に使用される方法は、主にHIS変換、PCA変換、ウェーブレット変換です。

⑥その他の画像融合技術

画像融合法には、エビデンス理論法、ニューラルネットワーク法、エキスパートシステム法なども含まれ、主にターゲット認識の分類と統計に使用されます。

 

5つの2次元ウェーブレット画像融合

実際には、画像内のオブジェクトは異なる縮尺で表示されます。エッジを例にとると、それは黒から白への急なエッジかもしれませんし、かなりの距離にわたるゆっくり変化するエッジかもしれません。画像の表現と分析における多重解像度法は、この考察に基づいています。

バートとアデルソンの画像分解および再構築ピラミッドアルゴリズム(つまり、ガウスラプラスピラミッドアルゴリズム)に触発されて、Mallatはウェーブレット変換の多重解像度分析に基づくMallatアルゴリズムを提案しました。

2次元の場合、空間L2(R2)の分離可能な多重解像度分析をVj2(jεZ)とします。各εZについて、スケール関数システムはVj2(jεZ)の通常の直交基底を構成し、ウェーブレット関数εZ2はL2を構成します(R2)通常の直交基底。次に、2次元画像f(x、y)εVj2の場合、Vj2空間での投影Ajf(x、y)で表すことができます。
 

ウェーブレット変換などは、ローパスフィルターとハイパスフィルターを使用して画像信号をフィルター処理します。Hr、GrおよびHc、Gcがミラー共役フィルターHおよびGがそれぞれ行および列に作用することを示す場合、ウェーブレット変換は次のように簡単に表すことができます。

 

ここで、H *、G *はHとGの共役転置行列です。

2次元画像の場合、式(4)の演算子Hr、Hcはローパスフィルターであり、画像の低周波数成分を除去するため、Cj + 1はCjの低周波数成分、つまり画像の低周波数部分を示します。演算子Hr、Gcは、列を平滑化して行の差を検出する2次元ローパスフィルターに相当するため、Dj1 + 1はCjの垂直方向の高周波成分、つまり画像の水平方向のエッジを示します。演算子GrHcはライン、つまり画像の垂直エッジを平滑化します。演算子GrGcは、対角エッジを検出するための両側高周波フィルターです。このことから、画像に対してウェーブレット変換を実行することは、画像を異なる周波数で異なる特徴領域に分解することであることがわかります。

融合される元の画像がウェーブレット変換された後、画像は異なる周波数領域に分解され、画像融合処理は、各周波数帯域での画像融合に異なるアルゴリズムを使用する必要があります。画像の場合、レイヤーウェーブレット変換を実行できます。各レイヤーのウェーブレット変換は、前のレイヤーのウェーブレット変換後に低周波数成分を変換するだけで済みます。このようにして、ウェーブレット変換のピラミッド構造が形成されます。

画像融合の最上位層はデータを選択またはイコライズする必要があるため、最上位層の低周波部分で使用される融合演算子は、融合画像の詳細にとって最も重要なステップです。画像高周波演算子を適切に選択すると、画像を強化できますエッジ、エッジの役割を強調します。一般に、最上位層の低周波部分は比較演算子を使用し、高周波部分は単純な重み付け演算子を使用し、他の層はすべて単純な重み付け演算子を使用します。

2ウェーブレット特性分析と画像融合ルール

2.1フュージョン法の理論的根拠

数値分布統計により、ウェーブレット分解後のソース画像AおよびBのサブ画像には、次の特性があります。(1)元の画像の領域のデータ変更範囲は、サブ画像の対応する領域のデータ変更範囲と一致しています。(2)同じターゲットまたはオブジェクトの異なるソース画像は、低周波画像の対応する領域で同じまたは類似のデータ値を持っていますが、高周波サブ画像には大きな違いがあります。ウェーブレット変換の上記の特性は、効果的な融合方法を選択するための理論的基礎を提供します。

2.2画像融合ルールと融合係数

武漢の特定の領域からの2つのTMリモートセンシング画像は、核融合実験に使用されます。AとBを2つの元の画像とし、Fを融合した画像とします。画像融合のプロセスでは、融合ルールと融合演算子の選択は、これまでの画像融合における未解決の問題です。

(1)フュージョンルール1:エッジ成分、つまりウェーブレット分解の高周波成分LHj、HLi、HHiの場合、2つの画像(i = 1,2,3、...の対応する係数行列の対応する項目の最大値をとります) 、N);低周波成分LLの場合、この部分は復元された画像の品質に大きな影響を与えるため、次を使用します。

F(j、k)=(A(j、k)+ K×B(j、k))×α-| A(j、k)-K×B(j、k)|×βの計算。それらの中で、K、α、βは重み係数です。前半A(j、k)+ K×B(j、k)×αは、2つの画像の加重平均を取ることを意味します。これは、融合画像のエネルギーに影響を与え、融合画像の高さを決定します。後半| A (j、k)-K×B(j、k)|×βは、2つの画像のブラー情報を含む、2つの画像の重み付き差分を取ることを意味します。係数Kは、2つの画像の最適な比率を調整して、明るさが異なる2つの画像のバランスをとります。α係数が大きくなると画像は明るくなり、β係数が大きくなると画像のエッジが強くなります。異なる画像の場合、K、α、βを適切に調整すると、ぼやけたエッジを削減でき、削減中にエッジ情報が過度に失われないようにすることができます。他の高周波成分については、2組の係数の最大値を取ることで最強のエッジ情報を得ることができ、高品質な出力画像を得ることができます。

(2)フュージョンルール2:2つの画像のウェーブレット分解後に高周波サブ画像の各ピクセルの局所平均勾配を計算し、融合した高周波サブ画像のピクセルを決定する基準としてピクセルの局所平均勾配を使用します値。A(x、y)と(x、y)をそれぞれ可視光と赤外線画像とし、異なる解像度の高周波サブ画像は次のとおりです。

Ajk(x、y)およびBjk(x、y)(k = 1,2,3; jはスケールパラメーター)

異なる解像度の高周波サブイメージの勾配イメージは、GAjk(x、y)とGBjk(x、y)です。GAjk(x、y)≥GBjk(x、y)の場合、ウェーブレット分解後の高周波情報は次のようになります。 :

 

6、まとめ

この記事では、スプライシングのいくつかの基本的な概念、プロセス、方法、およびアルゴリズムを簡単に紹介します。アルゴリズムは検証実験の一部のみを実行し、アルゴリズムはロバスト性が強く、精度が高く、計算速度が速くなります。科学技術の進歩により、画像スプライシング技術はより良い発展を遂げ、そのアプリケーションはますます広くなります!

 

 

画像の女性を例に取って、Matlabで次の処理を行います。

晴れ

女性を読み込む;%元の画像を読み込む

X1 = X; map1 = map;

subplot(221); image(X1); colormap(map1)

タイトル( '女性');

axis square%女性の画像を描く

wbarbをロードする;%元の画像をロードする

X2 = X; map2 = map;

for i = 1:256

    j = 1:256の場合

       if(X2(i、j)> 100)

           X2(i、j)= 1.2 * X2(i、j);

       そうしないと

           X2(i、j)= 0.5 * X2(i、j);

       終わり

    終わり

終わり

subplot(2,2,2); image(X2); colormap(map2)

タイトル( 'wbarb');

axis square%描画wbarbイメージ

[c1、s1] = wavedec2(X1,2、 'sym4');

sizec1 = size(c1);

for i = 1:sizec1(2)

     c1(i)= 1.2 * c1(i);

終わり

[c2、s2] = wavedec2(X2,2、 'sym4');

c = c1 + c2;

c = 0.5 * c;

xx = waverec2(c、s1、 'sym4');

subplot(223); image(xx);

タイトル( '融合画像');

axis square;%融合した画像を描画

 

 

結果分析:

ある部分の拡大画像と融合させた画像は、ぼんやりとした夢のような感じになり、背景の暗い部分が薄くなります。

おすすめ

転載: blog.csdn.net/ccsss22/article/details/108701449