リモートセンシング画像処理 - 教師付き分類

リモートセンシング画像分類は、リモートセンシングデジタル画像処理の重要な部分である画像情報抽出方法であり、リモートセンシングの最も広く使用されている分野の1つであり、土地利用分類情報の抽​​出も一般的な応用分野ですこのツイートは、画像分類の原理と方法を簡単に紹介し、ENVI における最尤分類の教師あり分類の演算プロセスに焦点を当てています。

1. リモートセンシング画像分類の枠組み

リモートセンシング画像の分類は主に目視判読コンピュータ判読に分けられますが、コンピュータ情報技術の発展に伴いコンピュータ判読が広く利用されるようになりました。コンピュータ解釈原理は、コンピュータシステムをサポート環境として使用し、リモートセンシング画像のピクセル値を判断基準とし、判別分析またはクラスター分析の原理に従って特徴ベクトル空間を構築し、分類することです。リモートセンシング画像の抽出が実現され、最終的にリモートセンシング情報が実現されます

コンピュータによる分類は主に教師あり分類教師なし分類の2つに分類されますが、両者の違いは主に事前の学習サンプルの有無にあり、いずれもリモートセンシング画像をより高精度に分類できます。分類

2. 教師付き分類プロセス

ENVI は、プロセスの要件に従って段階的に実行できる画像分類のワークフローを提供します。これは非常に簡単です。

次に、トレーニング サンプルを使用することを選択し、教師付き分類の次のステップを表すために使用することを選択します使用しない場合は、教師なし分類のプロセスになります。

3. ROIの構築

画像とマスクを入力した後、まず耕地、庭園地、森林などの一般的なカテゴリについての予備的な印象を得る必要があります。2 つ目は、ROI (関心領域) をトレーニング サンプルとして定義することです。学習サンプルを構築する際には、高解像度のリモートセンシング画像を参照したり、Google Earthなどのソフトウェアと組み合わせて分割したりすることができます。

トレーニング サンプルを構築するには、いくつかの考慮事項があります

1.サンプル領域は画像全体の 10% を占める必要があります (つまり、色付きの領域が 10% を占める)

2. ROI の選択は、できる限り小さく、多数かつ正確である必要があります。

3.同じ物体でもスペクトルが異なる現象に注意し、不確実な物体を最初に個別に選択し、分類後の処理時に最後に結合することができます。

最終的な ROI トレーニング サンプルは、次の図を参照できます。

トレーニング サンプルを選択した後、サンプルの分離性 ( ROI Separability )を計算する必要があります。

パラメーターの値は0~2.0で、1.9 より大きい場合はサンプルが十分に分離可能であり、適格なサンプルに属していることを示します。1.8 未満の場合はサンプルを再選択する必要があり、1 未満の場合は2 種類のサンプルを 1 つに結合することを検討してください。サンプルの種類

ROI が構築された後、それを画像分類プロセスインポートすることができ、分類アルゴリズムは最尤法を使用できます。

3. 分類後の処理

教師付き分類後の画像は直接使用することができず、分類の結合小さなパッチの削除ラスターからベクトルへの変換、高精度の分析操作などの後処理が必要です。これらの機能は、ツールボックス分類の後処理ツールバーの後に利用できます。を実現するための精密解析操作を中心に説明します。

精度テストでは、まずグラウンド トゥルース ROI を構築し、次に既存の分類を使用して混同行列分析 ( Confusion Matrix )を実行する必要があります精度テスト用のROI サンプルを作成するときは、次の原則に注意する必要があります

1.精密検査用の ROI サンプルは、サンプルの再描画に高解像度の地表リアルリモートセンシング画像を使用する必要があります

2.テストサンプルはトレーニングサンプルから独立している必要があります

必要なツールは次のとおりです。

分類結果は図に示されており、結果はピクセルパーセンテージ混同行列になります 一般に、分類精度は全体の分類精度 ( Overall Accuracy )カッパ係数 ( Kappa Coefficient )によって判断されます。

最終的に、十分な精度の土地利用分類マップを取得でき、後で GIS でさらに分析できます。

出典:景観生態計画研究室

ENVI 土地利用、植生指数、耕地モニタリング、水質逆転、気温逆転、干ばつモニタリングに基づくトピック

おすすめ

転載: blog.csdn.net/hu397313168/article/details/131321113