英文論文 (sci) Interpretation and Reproduction [NO.6] ASFF-YOLOv5: マルチスケール特徴融合に基づく UAV 画像における道路交通量の多変量検出手法

以前、標的検出アルゴリズムの改善コラムを掲載しましたが、どのようなシナリオに適用するのか、独自の適用シナリオで効果を発揮するにはどのような改善方法が必要なのか、どのレベルの記事でどの程度の改善を掲載すれば解決できるのか、この一連の記事は、高水準の学術雑誌に掲載された SCI 論文 対応する SCI ジャーナルを紹介して、疑問に答え、科学研究論文の提出を容易にすることを目的としています。解釈された一連の記事について、私は 革新的な 、必要な友人はプライベートメッセージに注意を払い、それらを取得できます.

1. まとめ

ASFF-YOLOv5: マルチスケール フィーチャ フュージョンに基づく UAV 画像の道路交通の多要素検出方法 道路交通要素は、道路の重要な部分であり、基本的な交通地理情報データベースを構築するための主要な要素です。しかし、道路交通要素の検出と認識には、要素が密集している、マルチスケール オブジェクトの検出が不十分である、小さなオブジェクトがオクルージョン要因の影響を受けやすいなどの問題が依然として存在します。この目的のために、マルチスケールの道路交通要素の自動識別と検出のために、適応空間機能融合 (ASFF) YOLOv 5 ネットワーク (ASFF-YOLOv 5) が提案されています。最初に、K-means++ アルゴリズムを使用して、マルチスケールの道路交通要素の範囲をクラスタリングおよびカウントし、データ セットに適した候補フレーム サイズを取得します。次に、Spatial Pyramid Pooling Fast (SPPF) 構造を使用して、分類の精度と速度を向上させながら、より豊富な特徴情報の抽出を可能にします。受容野ブロック (RFB) ベースの ASFF 戦略は、特徴スケールの不変性を改善し、小さなオブジェクトの検出を強化するために提案されています。最後に、実験効果は、平均精度 (mAP) を計算することによって評価されました。実験結果は、この方法のmAP値が93.1%であり、元のYOLOv 5モデルよりも19.2%高いことを示しています。

2. ネットワークモデルとコアイノベーションポイント

1. K-means++ アルゴリズムを使用して、マルチスケールの道路交通要素の範囲をクラスタリングおよびカウントし、データ セットに適した候補フレームのサイズを取得します。

2. Spatial Pyramid Pool Fast (SPPF) 構造。分類の精度と速度を向上させると同時に、より豊富な特徴情報の抽出を実現します。

3. 受容野ブロック (RFB) に基づく ASFF 戦略を提案して、特徴スケールの不変性を改善し、小さなターゲットの検出効果を高めます。

3. 実験結果(一部表示)

1. 比較実験:この方法の有効性を検証するために、この論文では、従来のオブジェクト検出ネットワーク アルゴリズムを比較します。SSD、Retinanet、Faster R-CNN、YOLOv 3 YOLOv 4、YOLOv 5 ネットワーク、および以前の研究が、提案された方法との比較実験のために選択されます。

 実験では、道路交通量の多変量データセットでトレーニングするときに、AP、精度、再現率、mAP 評価指標の値が計算され、比較されます。表 3 に示すように、さまざまなネットワーク モデルでの多変量道路交通の認識精度がカウントされます。その中で、増加した mAP 値は、各ネットワークを提案手法と比較することによって計算されます。

2.アブレーション実験

アルゴリズムの有効性を検証するために、多要素道路交通データセットに対してアブレーション実験を行い、K-means++、SPPF、および ASFF の融合後の実験結果を比較します。AP、精度、再現率、mAP 値を計算して比較します。アブレーション試験の結果を表 5 に示します。

 実験結果は、上記のアブレーション実験が、検出エラーまたは検出漏れなしで良好なゼブラ交差検出結果を達成できることを示しています。ただし、上記のアブレーション実験では、路上駐車スペースを検出する際にすべて検出漏れがあり、検出漏れした路上駐車スペースの数は 3 ~ 11 でした。全体の結果から、YOLOv 5 + SPPF 方式の平均検出精度が最も高いものの、検出漏れの数が 11 と最も深刻です。アブレーション実験で重大な検出漏れがあったのと比較して、この方法は 3 回しか検出できず、アブレーション実験で検出漏れが最も少ない方法でした。この方法の検出精度は 93.5% であり、閉塞した路上駐車スペースでは両者の差はわずか 0.28 ですが、検出漏れ率は大幅に減少しています。実験は、この方法が検出の正確さを保証しながら検出精度を維持することを示しています。

5. 実験の結論

UAVリモートセンシング画像から交通要素情報を抽出する際のデータ量が少ない、自動化度は低いが要求が高い、要素規模が小さい、環境に左右されやすいといった問題を解決するため、UAVリモートセンシングから交通要素情報を抽出する方法ASFF-YOLOv5 に基づく画像が提案されています。このアルゴリズムは、受容野モジュールに基づく適応空間特徴融合法を採用し、さまざまなスケール情報を十分に活用し、特徴スケールの不変性を改善し、小さなターゲットの検出効果を改善します。複数の道路交通要素を検出した場合、提案手法の mAP は 93.1%、つまり 19 に達します。これは、元の YOLOv5 ネットワークよりも 2% 高くなっています。比較実験とアブレーション実験は、この方法が多要素道路交通の誤検出と検出漏れの問題を解決し、多要素道路の小さくて密集した物体の検出精度を改善し、建設のための新しいソリューションを提供できることを示しています基本的な地理交通情報データベース。

注:論文の原文は ASFF-YOLOv5 からのものです: Multiscale Feature Fusion に基づく UAV 画像の道路交通の多要素検出方法 この記事は学術的な共有のみを目的としています. 侵害がある場合は、バックグラウンドに連絡して記事を削除してください.

一連の記事の解釈、私は革新的なコードを再現しました。困っている友人は、プライベートメッセージに注意を払うことを歓迎します .

おすすめ

転載: blog.csdn.net/m0_70388905/article/details/130477991