【读论文】適応ピクセル重み付け戦略を使用したリアルタイムの赤外線および可視画像融合ネットワーク

【读论文】適応ピクセル重み付け戦略を使用したリアルタイムの赤外線および可視画像融合ネットワーク

論文: https://www.sciencedirect.com/science/article/pii/S1566253523001793

侵害がある場合はブロガーに連絡してください

赤外光と可視光の画像融合に関する論文のより詳細な解釈については、赤外光と可視光の画像融合コラム を参照してください。この分野に関する質問については、プライベート メッセージまたはパブリック アカウント経由で私に連絡することも歓迎します。

導入

長い間論文を読んでいませんでしたが、今日少し時間ができたので、情報融合に関する論文を見つけました。一緒に見てみましょう。
ここに画像の説明を挿入します
リアルタイム性を向上させる論文です。この論文はこれまでの論文とは異なります。違いについて見てみましょう。

ネットワーク構造

ここに画像の説明を挿入します
まずこのネットワーク アーキテクチャ図を見てみましょう

どう思いますか? 私の最初の反応は、今日は興奮したということです。なぜこのネットワーク アーキテクチャ図はとても単純なのでしょうか? なぜアテンション ブロックやエンハンスメント ブロックなどが存在しないのですか? 畳み込み層はほんのわずかしかありません。これには感心する必要があります。本稿の著者もこのような単純なネットワーク構造を設計することができ、役に立っています。

ここに画像の説明を挿入します

では、その構造はどのようなものなのでしょうか?

表面的には、いくつかの畳み込み層が積み重なっているように見えますが、実際には、いくつかの畳み込み層が積み重なっているだけです。

軽量とは何か? これは軽量だ!
![ここに画像の説明を挿入](https://img-blog.csdnimg.cn/8487d03e01ad4cc098d88f69e9f3f305.png #pic_center =200)

では、前の畳み込みは何をするのでしょうか?

まずそれについて話します. 著者はネットワーク全体のリアルタイム性能を向上させたいと考えています. 深い特徴を抽出して画像を復元するこれらの方法は明らかに不適切です. そして記事の中で述べられていますが, に基づいた方法はありますが深い特徴は画像の効果を向上させますが、下流のタスクには適していません。ピクセルベースの方法と比較して違いはありません。

したがって、これらの畳み込み層を設定する目的は重みを生成することであり、生成された重みを使用して赤外光画像と可視光画像を加算し、処理後に画像を融合します。

重みを生成するプロセスは次のとおりです. ここでの P は、前述した複数の畳み込み層にシグモイドを加えたものです. 目的は、出力結果の重みを 0 から 1 の間にすることです. C は、重みを使用して演算を結合するプロセスです
ここに画像の説明を挿入します
以下のように画像を融合し
ここに画像の説明を挿入します
、正規化します
ここに画像の説明を挿入します

この時点で、画像の融合が完了します。

これを見て、これらの畳み込み層で必要な重みを生成するにはどうすればよいのかと疑問に思うかもしれません。

この問題の損失関数を見てみましょう。心配しないで、損失関数を見てみましょう。

損失関数

ここに画像の説明を挿入します
ここに画像の説明を挿入します
ここに画像の説明を挿入します
ここに画像の説明を挿入します

この損失関数を見るとどんな感じになりますか? とても新鮮ですよね?

このような単純な損失を長い間見たことがありませんでした。最大勾配と最大強度の損失はすべて私たちにとってよく知られたものです。

唯一の違いは、ここでの検出損失であり、これは YoloV5 と一致しています。

私たちが言い続けてきたのは、この論文の目的は、融合画像を下流のタスクにより適したものにすることです。ここでの検出損失は、まさにこのようなものです。これは、融合画像の検出精度を向上させ、最大勾配と組み合わせて、最大強度損失が発生するため、融合画像は下流タスクの検出に適しているだけでなく、強度情報と詳細情報を保持することができます。

それは非常に明白です。ネットワーク アーキテクチャでトレーニングできるのは前の畳み込み層だけです。畳み込み層の出力は重みです。つまり、対応する重みを生成することで上記の目標を達成したいということになります。したがって、これらの損失関数により、畳み込み層はトレーニング プロセス中に適応重みを生成できるようになります。

要約する

論文全体は非常に読みやすいです. 私にとって最大のインスピレーションは, ネットワークのサイズと特徴抽出方法の多様性の当初の追求が変更可能であるということです. 結局のところ, 私たちは今でも融合画像が次の用途に使用できることを期待しています.生成だけでなく、下流のタスクも実行できます。

他の融合画像論文の解釈
==》赤外線と可視光の画像融合コラム、クリックしてください》==

【論文を読む】AT-GAN

【論文を読む】SwinFusion

【論文を読む】FGANへの注意

【論文を読む】DIVFusion: 暗闇のない赤外線画像と可視画像の融合

【读论文】RFN-Nest: 赤外線画像と可視画像のためのエンドツーエンドの残留融合ネットワーク

【論文を読む】DDcGAN

【读论文】赤外線画像と可視画像の融合のための自己監視型機能適応

【读论文】FusionGAN: 赤外線画像と可視画像の融合のための敵対的生成ネットワーク

【读论文】DeepFuse: 極端な露出画像ペアを使用した露出融合のための教師なしディープアプローチ

【读论文】DenseFuse: 赤外線画像と可視画像への融合アプローチ

参考


[1] 適応ピクセル重み付け戦略を使用したリアルタイムの赤外線画像と可視画像の融合ネットワーク

おすすめ

転載: blog.csdn.net/qq_43627076/article/details/132896156