赤外線と可視光画像の融合に関する論文とコードの編集 赤外線と可視光の画像融合に関する論文とコードの編集

赤外線と可視光の画像融合に関する論文とコードの編集

ニュース

[2022-07-29] 総説論文「A Review of Image Fusion Methods Based on Deep Learning」が「China Journal of Image and Graphics」に正式に受理されました!論文ダウンロード

このブログ記事は、再版:画像融合論文とコードURLのまとめ(2) - 赤外光と可視光の画像融合を拡張し、既存の赤外光と可視光の画像融合アルゴリズム(記事とコード)をまとめたものです。赤外光と可視光の画像融合分野の論文コードをチェックする際に、私自身と皆さんに少しでも便利になればと思っています。また、この分野の記事は数多くありますが、このブログ記事ではその一部をまとめただけであり、レベルが限られているため、記事の解釈は省略しています。
著者QQ: 2458707789、友達申請の際はメモしやすいように名前+学校をメモしてください。

また、著者は、高レベルのビジョン タスクによって駆動されるイメージ フュージョン フレームワークも紹介しました。詳細については、「SeAFusion: 高レベルのビジョン タスクを組み合わせた最初のイメージ フュージョン フレームワーク」を参照してください。
著者には、同じシリーズのブログ投稿もあります。

  1. イメージ フュージョンの論文とコードの最も包括的なコレクションについては、「イメージ フュージョンの論文とコードの最も包括的なコレクション」を参照してください。
  2. イメージフュージョンのレビュー論文集については、「イメージフュージョンのレビュー論文集」を参照してください。
  3. イメージフュージョン評価指標については、「赤外線および可視光イメージフュージョン評価指標」を参照してください。
  4. イメージ フュージョンに一般的に使用されるデータ セットの構成については、「イメージ フュージョンに一般的に使用されるデータ セットの構成」を参照してください。
  5. 一般的なイメージ フュージョン フレームワークの論文とコードの配置については、「一般的なイメージ フュージョン フレームワークの論文とコードの配置」を参照してください。
  6. 深層学習に基づく赤外線と可視光画像の融合に関する論文とコード集は、「深層学習に基づく赤外線と可視光の画像融合に関する論文とコード集」を参照してください。
  7. 赤外線と可視光の画像融合コードの詳細については、「赤外線と可視光の画像融合に関する論文とコードのコレクション」を参照してください。
  8. 深層学習に基づく多重露出画像融合の論文とコードのコンパイルについては、深層学習に基づく多重露出画像融合の論文とコードのコンパイルを参照してください。
  9. 深層学習に基づく多焦点画像融合の論文とコード集は、深層学習に基づく多焦点画像融合の論文とコード集を参照してください。
  10. 深層学習に基づいたパンカラー画像のシャープ化の論文とコード。「深層学習に基づいたパンカラー画像の鮮明化の論文とコード (パンシャープニング)」を参照してください。
  11. 深層学習に基づいた医用画像融合の論文とコードの編集については、深層学習に基づいた医用画像融合の論文とコードの編集を参照してください。
  12. カラー イメージ フュージョンについては、「カラー イメージ フュージョン」を参照してください。
  13. SeAFusion: 高レベルのビジョン タスクを組み合わせた最初のイメージ フュージョン フレームワーク 参照: SeAFusion: 高レベルのビジョン タスクを組み合わせた最初のイメージ フュージョン フレームワーク

 

同じシリーズの著者のブログ投稿も転載されています。

画像融合論文とコードURLのまとめ(1) - 多焦点画像融合

画像融合論文とコードURLまとめ(2) - 赤外線と可視光の画像融合

画像融合論文とコードURLのまとめ(3) - タイトルで区別しない画像融合アルゴリズム

画像融合データセット、画像融合データベース

 


 

【2022年】

記事: 高レベル ビジョン タスクのループにおける画像融合: セマンティックを意識したリアルタイムの赤外線および可視画像融合ネットワーク [ディープ ラーニング] [高レベル ビジョン タスク ドライバー]

引用者: 唐、林峰、袁吉騰、馬嘉儀。「高レベルのビジョンタスクのループにおける画像融合: セマンティックを意識したリアルタイムの赤外線画像と可視画像の融合ネットワーク」情報フュージョン 82 (2022): 28-42。

論文:ハイレベルビジョンタスクのループにおける画像融合: セマンティックを意識したリアルタイムの赤外線および可視画像融合ネットワーク

コード: https://github.com/Linfeng-Tang/SeAFusion

解釈: SeAFusion: 高レベルの視覚タスクを組み合わせた最初のイメージ フュージョン フレームワーク
記事: SwinFusion: Swin Transformer による一般画像融合のためのクロスドメイン長距離学習 [TransFormer] [一般画像融合フレームワーク]

引用: Jiayi Ma、Linfeng Tang、Fan Fan、Jun Huang、Xiaoguang Mei、Yong Ma「SwinFusion: Swin Transformer による一般画像融合のためのクロスドメイン長距離学習」、IEEE/CAA Journal of Automatica Sinica、9 (7)、1200-1217ページ、2022年7月。

論文:SwinFusion: Swin Transformer による一般画像融合のためのクロスドメイン長距離学習

コード:https://github.com/Linfeng-Tang/SwinFusion

記事: PIAFusion: 照明対応 [ディープラーニング] に基づく進歩的な赤外線画像と可視画像の融合ネットワーク

引用: Tang、Linfeng、Jiteng Yuan、Hao Zhang、Xingyu Jiang、Jiayi Ma「PIAFusion: 照明を認識したプログレッシブ赤外線および可視画像融合ネットワーク。」Information Fusion 83 (2022): 79-92。

論文:PIAFusion: 照明対応型のプログレッシブ赤外線画像融合ネットワーク

コード: https://github.com/Linfeng-Tang/SeAFusion

記事: 物体検出のために赤外線と可視光を融合するターゲット認識デュアル敵対学習とマルチシナリオ マルチモダリティ ベンチマーク [深層学習] [高度なビジョン タスク ドライバー]

引用者: Liu、Jinyuan、Xin Fan、Zhanbo Huang、Guanyao Wu、Risheng Liu、Wei Zhong、Zhongxuan Luo。「赤外線と可視光を融合して物体を検出する、ターゲットを意識した二重敵対学習とマルチシナリオのマルチモダリティ ベンチマーク」コンピューター ビジョンとパターン認識に関する IEEE/CVF 会議議事録、5802 ~ 5811 ページ。2022年。

論文:赤外線と可視光を融合して物体を検出するためのターゲット認識デュアル敵対学習とマルチシナリオ マルチモダリティ ベンチマーク

コード:https://github.com/JinyuanLiu-CV/TarDAL

記事: クロスモダリティ画像生成と登録による教師なし位置ずれ赤外線画像と可視画像の融合 [深層学習] [登録融合]

引用者: Wang、Di、Jinyuan Liu、Xin Fan、Risheng Liu。「クロスモダリティ画像の生成と登録による、教師なしの位置ずれした赤外線画像と可視画像の融合」arXiv プレプリント arXiv:2205.11876 (2022)。

論文:クロスモダリティ画像生成と登録による教師なし位置ずれ赤外線画像と可視画像の融合

コード: https://github.com/wdhudiekou/UMF-CMGR

【2021年】

記事: STDFusionNet: 顕著なターゲット検出に基づく赤外線画像と可視画像の融合ネットワーク [深層学習] [顕著なターゲット マスク]

引用: J. Ma、L. Tang、M. Xu、H. Zhang、G. Xiao、「STDFusionNet: An Infrared and Visible Image Fusion Network Ba​​sed on Salient Target Detection」、IEEE Transactions on Instrumentation and Measurement、2021、 70:1-13。

論文:STDFusionNet: An Infrared and Visible Image Fusion Network Ba​​sed on Salient Target Detection

コード: https://github.com/Linfeng-Tang/STDFusionNet

記事: SDNet: リアルタイム画像融合のための多用途のスクイーズアンド分解ネットワーク [深層学習] [ユニバーサル画像融合フレームワーク]

引用: Zhang, H. および Ma, J.、2021。 SDNet: リアルタイム画像融合のための多用途の圧縮および分解ネットワーク。インターナショナル ジャーナル オブ コンピュータ ビジョン、129(10)、2761-2785 ページ。

論文:SDNet: リアルタイム画像融合のための多用途スクイーズアンド分解ネットワーク

コード:https://github.com/HaoZhang1018/SDNet

記事: 画像融合と深層学習の出会い: 調査と展望 [深層学習] [レビュー]

引用者:Zhang、Hao、Han Xu、Xin Tian、Junjun Jiang、Jiay Ma。「イメージフュージョンとディープラーニングの出会い: 調査と展望」情報フュージョン 76 (2021): 323-336。

論文:画像融合と深層学習の融合: 調査と展望

記事: 可視画像と赤外線画像の融合のための分類顕著性に基づくルール [深層学習 [学習可能な融合ルール]]

引用者: Xu、Han、Hao Zhang、Jiayi Ma。「可視画像と赤外線画像の融合のための分類顕著性に基づくルール」IEEE Transactions on Computational Imaging 7 (2021): 824-836。

論文:可視画像と赤外線画像の融合のための分類顕著性に基づくルール

コード: https://github.com/hanna-xu/CSF

文章:GANMcC: 赤外線画像と可視画像の融合のための多分類制約を備えた敵対的生成ネットワーク【深度学习 【GAN】

引用者: Ma、Jiayi、Hao Zhang、Zhenfeng Shao、Pengwei Liang、Han Xu。「GANMcC: 赤外線画像と可視画像の融合のための多分類制約を備えた敵対的生成ネットワーク。」IEEE Transactions on Instrumentation and Measurement 70 (2020): 1-14.

論文: GANMcC: 赤外線画像と可視画像の融合のための多分類制約を備えた敵対的生成ネットワーク

コード: https://github.com/HaoZhang1018/GANMcC

記事: マルチモダリティ画像融合のためのデータ駆動型レイヤー アンサンブルを備えた 2 レベル統合モデル [深層学習]

引用: Liu、Risheng、Jinyuan Liu、Zhiying Jiang、Xin Fan、および Zhongxuan Luo「マルチモダリティ画像融合のためのデータ駆動型レイヤー アンサンブルを備えたバイレベル統合モデル」IEEE Transactions on Image Processing 30 (2020): 1261 -1274年。

論文:マルチモダリティ画像融合のためのデータ駆動型レイヤー アンサンブルを備えた 2 レベル統合モデル

記事: RFN-Nest: 赤外線および可視画像用のエンドツーエンド残差融合ネットワーク [深層学習] [マルチスケール]

引用者: Li、Hui、Xiao-Jun Wu、Josef Kittler。「RFN-Nest: 赤外線画像と可視画像のためのエンドツーエンドの残留融合ネットワーク」情報フュージョン 73 (2021): 72-86。

論文: RFN-Nest: 赤外線および可視画像用のエンドツーエンドの残留融合ネットワーク

コード: https://github.com/hli1221/imagefusion-rfn-nest

記事: DRF: 可視画像と赤外線画像の融合のための分解表現 [深層学習] [分解学習]

引用者: Xu、Han、Xinya Wang、Jiay Ma。「DRF: 可視画像と赤外線画像の融合のための解きほぐされた表現」計測および測定に関する IEEE トランザクション 70 (2021): 1-13。

論文: DRF: 可視画像と赤外線画像の融合のための解絡表現

コード: https://github.com/hanna-xu/DRF

記事: RXDNFuse: 赤外線画像と可視画像の融合のための集約された残差高密度ネットワーク [深層学習]

引用: Long、Yongzhi、Haitao Jia、Yida Zhong、Yadong Jiang、および Yuming Jia「RXDNFuse: 赤外線および可視画像融合のための集約された残留高密度ネットワーク」Information Fusion 69 (2021): 128-141。

論文: RXDNFuse: 赤外線画像と可視画像の融合のための集約された残留高密度ネットワーク

記事: 異なる入力解像度と任意の出力解像度: 赤外線画像と可視画像の融合のためのメタラーニングベースのディープ フレームワーク [ディープ ラーニング] [メタ ラーニング]

引用者: Li、Huafeng、Yueliang Cen、Yu Liu、Xun Chen、Zhengtao Yu。「異なる入力解像度と任意の出力解像度: 赤外線画像と可視画像の融合のためのメタ学習ベースのディープ フレームワーク」画像処理に関する IEEE トランザクション 30 (2021): 4070-4083。

論文:異なる入力解像度と任意の出力解像度: 赤外線画像と可視画像の融合のためのメタ学習ベースのディープ フレームワーク

記事: 深層分解ネットワークと顕著性分析に基づく赤外線画像と可視画像の融合 [深層学習] [深層分解ネットワーク]

引用: Jian, L.、Rayhana, R.、Ma, L.、Wu, S.、Liu, Z.、Jiang, H.、2021 年。深層分解ネットワークと顕著性分析に基づく赤外線画像と可視画像の融合。マルチメディアに関するIEEEトランザクション。

論文:深層分解ネットワークと顕著性分析に基づく赤外線画像と可視画像の融合

【2020年】

1. 記事: U2Fusion: 統合された教師なし画像融合ネットワーク [ディープラーニング] [一般的な画像融合]

引用:Xu H、Ma J、Jiang J 他 U2Fusion: 統合された教師なし画像融合ネットワーク[J]。パターン分析とマシンインテリジェンスに関する IEEE トランザクション、2020 年。

論文:U2Fusion: 統合された教師なし画像融合ネットワーク

コード:https://github.com/jiayi-ma/U2Fusion

2. 記事: マルチモーダル画像復元と融合のための深層畳み込みニューラル ネットワーク [ディープラーニング] [画像分解]

引用: Deng X、Dragotti P L。マルチモーダル画像復元および融合のためのディープ畳み込みニューラル ネットワーク[J]。パターン分析とマシンインテリジェンスに関する IEEE トランザクション、2020 年。

論文:マルチモーダル画像復元と融合のための深層畳み込みニューラル ネットワーク

コード:

3. 記事: FusionDN: 画像融合のための統合された高密度接続ネットワーク [ディープラーニング] [一般的な画像融合]

引用:Xu H、Ma J、Le Z 他 FusionDN: Image Fusion[C]//AAAI 用の統合された高密度接続ネットワーク。2020: 12484-12491。

論文:FusionDN: 画像融合のための統合された高密度接続ネットワーク

コード:https://github.com/jiayi-ma/FusionDN

4. 記事: DDcGAN: 多重解像度画像融合のためのデュアルディスクリミネーター条件付き敵対的生成ネットワーク [ディープラーニング]

引用:Ma J、Xu H、Jiang J、他 DDcGAN: 多重解像度画像融合のためのデュアルディスクリミネーター条件付き敵対的生成ネットワーク[J]。画像処理に関する IEEE トランザクション、2020、29: 4980-4995。

論文:DDcGAN: 多重解像度画像融合のためのデュアルディスクリミネーター条件付き敵対的生成ネットワーク

コード:https://github.com/jiayi-ma/DDcGAN

5. 記事: 画像融合の再考 勾配と強度の比例維持に基づく高速統合画像融合ネットワーク [ディープラーニング] [一般的な画像融合]

引用:Zhang H、Xu H、Xiao Y 他 画像融合の再考: 勾配と強度の比例維持に基づく高速統合画像融合ネットワーク[C]//Proc. AAAI会議 アーティフ。知性。2020年。

論文:画像融合の再考: 勾配と強度の比例維持に基づく高速統合画像融合ネットワーク(PMGI)

コード:https://github.com/HaoZhang1018/PMGI AAI2020

6、文章:Infrared and visible image fusion based on target-enhanced multiscale transform decomposition  【多尺度分解】

引用:Chen J、Li X、Luo L、他 ターゲット強化マルチスケール変換分解に基づく赤外線画像と可視画像の融合[J]。情報科学、2020、508: 64-78。

論文:ターゲット強化マルチスケール変換分解に基づく赤外線画像と可視画像の融合

コード:https://github.com/jiayi-ma/TE-MST

7. 記事: AttendanceFGAN: アテンションベースの敵対的生成ネットワークを使用した赤外線画像と可視画像の融合 [ディープラーニング]

引用: Li J、Huo H、Li C 他。アテンションFGAN: アテンションベースの敵対的生成ネットワークを使用した赤外線画像と可視画像の融合[J]。マルチメディアに関するIEEEトランザクション、2020年。

論文:AttendanceFGAN: Attendance-based Generative Adversarial Networks を使用した赤外線画像と可視画像の融合

8. 記事: MDLatLRR: 赤外画像と可視画像の融合のための新しい分解法 [マルチスケール分解]

引用:Li H、Wu X、Kittler J 他 MDLatLRR: 赤外線画像と可視画像の融合のための新しい分解方法[J]。画像処理に関する IEEE トランザクション、2020: 4733-4746。

論文:MDLatLRR: 赤外画像と可視画像の融合のための新しい分解法

コード:https://github.com/hli1221/imagefusion_mdlatlrr

9、文章:NestFuse: An Infrared and Visible Image Fusion Architecture Based on Nest Connection and Spatial/Channel Attention Models  【多尺度分解】

引用:Li H、Wu XJ、Durrani T. Nestfuse: ネスト接続および空間/チャネル注意モデルに基づく赤外線画像と可視画像の融合アーキテクチャ[J]。計測と測定に関する IEEE トランザクション、2020、69(12): 9645-9656。

論文:NestFuse: ネスト接続と空間/チャネル アテンション モデルに基づく赤外線と可視画像の融合アーキテクチャ

コード:https://github.com/hli1221/imagefusion-nestfuse

10. 記事: IFCNN: 畳み込みニューラル ネットワークに基づく一般的な画像融合フレームワーク [深層学習] [一般的な画像融合]

引用:Zhang Y、Liu Y、Sun P、他 IFCNN: 畳み込みニューラル ネットワークに基づく一般的な画像融合フレームワーク[J]。情報融合、2020: 99-118。

用紙:. IFCNN: 畳み込みニューラル ネットワークに基づく一般的な画像融合フレームワーク

コード:https://github.com/uzeful/IFCNN

11. 記事: RXDNFuse: 赤外線画像と可視画像の融合のための集約された残差高密度ネットワーク [深層学習]

引用:Long Y、Jia H、Zhong Y、他 RXDNFuse: 赤外線画像と可視画像の融合のための集約された残留高密度ネットワーク[J]。情報融合、69: 128-141。

用紙:. RXDNFuse: 赤外線画像と可視画像の融合のための集約された残留高密度ネットワーク

12. 記事: 詳細を保持した敵対的学習による赤外線画像と可視画像の融合 [深層学習] [敵対的生成ネットワーク]

引用者:Ma J、Liang P、Yu W 他 詳細を維持した敵対的学習による赤外線画像と可視画像の融合[J]。インフォメーション・フュージョン、2020、54: 85-98。

用紙:. 詳細を維持した敵対的学習による赤外線画像と可視画像の融合

コード:https://github.com/jiayi-ma/ResNetFusion

13. 記事: SEDRFuse: 赤外線画像と可視画像の融合のための残差ブロック ネットワークを備えた対称エンコーダ-デコーダ [深層学習]

引用: Jian L、Yang X、Liu Z、他。SEDRFuse: 赤外線画像と可視画像の融合のための残差ブロック ネットワークを備えた対称エンコーダ - デコーダ [J]。計測と測定に関する IEEE トランザクション、2020、70: 1-15。

論文:SEDRFuse: A Symmetric Encoder-Decoder with Residual Block Network for Infrared and Visible Image Fusion

コード:https://github.com/jianlihua123/SEDRFuse

14. 記事: VIF-Net: 赤外線画像と可視画像の融合のための教師なしフレームワーク [ディープラーニング]

引用: JHou R、Zhou D、Nie R、他。VIF-Net: 赤外線画像と可視画像の融合のための教師なしフレームワーク[J]。IEEE Transactions on Computational Imaging、2020、6: 640-651。

論文:VIF-Net: 赤外線画像と可視画像の融合のための教師なしフレームワーク

コード:https://github.com/Laker2423/VIF-NET

15、文章:Wasserstein 距離による二重識別子生成敵対的ネットワークを使用した赤外線画像と可視画像の融合 【深度学习】

引用: Li J、Huo H、Liu K、他。Wasserstein 距離によるデュアルディスクリミネーター生成敵対的ネットワークを使用した赤外線画像と可視画像の融合[J]。情報科学、2020、529: 28-41。

論文:ワッサーシュタイン距離を備えたデュアルディスクリミネーター生成敵対的ネットワークを使用した赤外線画像と可視画像の融合

16. 記事: 赤外線画像と可視画像の融合のためのマルチグレイン アテンション ネットワーク [ディープラーニング]

引用: Li J、Huo H、Li C 他。赤外線画像と可視画像の融合のためのマルチグレイン アテンション ネットワーク[J]。計測と測定に関する IEEE トランザクション、2020、70: 1-12。

論文:赤外線画像と可視画像の融合のためのマルチグレイン アテンション ネットワーク

【2019年】

1. 記事: FusionGAN: 赤外線画像と可視画像の融合のための敵対的生成ネットワーク [ディープラーニング]

引用: Jiayi Ma、Wei Yu、Pengwei Liang、Chang Li、Junjun Jiang、FusionGAN: 赤外線画像と可視画像の融合のための生成敵対的ネットワーク、Information Fusion、48、11-26 ページ、2019 年 8 月。

論文:https://doi.org/10.1016/j.inffus.2018.09.004

コード:https://github.com/jiayi-ma/FusionGAN

著者:

馬嘉儀、武漢大学。

ホームページ:

http://www.escience.cn/people/jiayima/index.html  (科学研究オンライン研究ホームページ)

http://mvp.whu.edu.cn/jiayima/

GitHub アドレス: https://github.com/jiayi-ma

リー・チャン、合肥理工大学講師。

個人ホームページ:http://www.escience.cn/people/lichang/index.html(科学研究オンライン研究ホームページ)

(言及する価値があります。ホームページのデータ列には、ハイパースペクトル画像データのリンクがまとめられています。)

 GitHub アドレス: https://github.com/Chang-Li-HFUT

ジャン・ジュンジュン、ハルビン工業大学教授。

ホームページ:

http://www.escience.cn/people/jiangjunjun/index.html (科学研究オンライン研究ホームページ)

https://jiangjunjun.wordpress.com

http://homepage.hit.edu.cn/jiangjunjun (ハルビン工業大学のホームページ)

https://scholar.google.com/quotes?user=WNH2_rgAAAAJ&hl=zh-CN&oi=ao (Google Scholar ホームページ)

https://github.com/junjun-jiang (GitHub ホームページ)

 

2. 論文:赤外線画像と可視画像の融合手法とその応用:調査[総説記事]

引用者: Jiay Ma、Yong Ma、Chang Li。「赤外線画像と可視画像の融合方法と応用: 調査」、Information Fusion、45、pp. 153-178、2019。

論文:https://doi.org/10.1016/j.inffus.2018.02.004

著者:武漢大学馬嘉儀氏。マーヨンリーチャン

 

【2018年】

1. 記事: ResNet による赤外線画像と可視画像の融合と零相成分解析(クリックして記事をダウンロード) [ディープラーニング]

引用:Li H 、Wu XJ 、Durrani TS 。ResNet とゼロ位相成分分析による赤外線画像と可視画像の融合[J]。2018年。

論文:https://arxiv.org/abs/1806.07119

コード:https://github.com/hli1221/imagefusion_resnet50

著者:

Li Hui 氏、江南大学博士。(講師:呉暁君)

ホームページ: https://hli1221.github.io

GitHub アドレス:

https://github.com/hli1221  (プライマリGitHub)

https://github.com/例外Li

呉暁君

ホームページ: http://iot.jiangnan.edu.cn/info/1059/1532.htm (学校家庭教師のホームページ)

https://scholar.google.com/quotes?user=5IST34sAAAAJ&hl=zh-CN&oi=sra (Google Scholar ホームページ)

 

2. 記事: DenseFuse: 赤外線画像と可視画像への融合アプローチ(クリックして記事をダウンロード) [ディープラーニング]

引用:

H. Li、XJ Wu、DenseFuse: 赤外線画像と可視画像への融合アプローチ、IEEE Trans. 画像処理 (早期アクセス)、1-1 ページ、2018 年。

論文:https://arxiv.org/abs/1804.08361

(DOI:10.1109/TIP.2018.2887342

コード:https://github.com/hli1221/imagefusion_densefuse

別の実装: https://github.com/srinu007/MultiModelImageFusion (コード パッケージには、イメージ フュージョン MATLAB 客観的評価インデックス関数も含まれています)

著者: Li Hui、江南大学博士。(講師:呉暁君)

 

3. 記事:深層学習フレームワークを使用した赤外線画像と可視画像の融合(クリックして記事をダウンロード) [深層学習]

引用:Li H、Wu XJ、Kittler J. 深層学習フレームワークを使用した赤外線画像と可視画像の融合[C]//パターン認識 (ICPR)、2018 年の第 24 回国際会議。IEEE、2018: 2705 - 2710。

論文:https://arxiv.org/pdf/1804.06992

DOI:  10.1109/ICPR.2018.8546006

コード:https://github.com/hli1221/imagefusion_deeplearning

著者: Li Hui、江南大学博士。(講師:呉暁君)

 

4. 論文:潜在低ランク表現を用いた赤外線画像と可視画像の融合 [画像融合にはLRRを使用]

引用:Li H、Wu X J。潜在低ランク表現を使用した赤外線画像と可視画像の融合[J]。2018年。

論文:https://arxiv.org/abs/1804.08992

コード:https://github.com/ExceptionLi/imagefusion_Infrared_visible_latlrr

著者: Li Hui、江南大学博士。(講師:呉暁君)

 

5. 論文:新しい深層分解手法を用いた赤外線画像と可視画像の融合 [深層学習]

引用: Li H、Wu X。新しい深層分解法を使用した赤外線画像と可視画像の融合[J]。arXiv: コンピューター ビジョンとパターン認識、2018 年。

論文:https://arxiv.org/abs/1811.02291

コード:https://github.com/hli1221/imagefusion_deepdecomposition

著者: Li Hui、江南大学博士。(講師:呉暁君)

 

6、文章:離散定常ウェーブレット変換領域における離散コサイン変換と局所空間周波数に基づく赤外線画像と視覚画像の融合方法

引用: Jin X、Jiang Q、Yao S、他。離散定常ウェーブレット変換領域における離散コサイン変換と局所空間周波数に基づく赤外線画像と視覚画像の融合手法[J]。赤外線物理学とテクノロジー、2018: 1-12。

論文:https://doi.org/10.1016/j.infrared.2017.10.004

コード:https://github.com/jinxinhuo/SWT_DCT_SF-for-image-fusion

https://ww2.mathworks.cn/matlabcentral/fileexchange/68674-infrared-and-visual-image-fusion-method-based-on-swt_dct_sf?s_tid=FX_rc2_behav

著者:ジン・シン —— 2013年雲南大学博士号取得。

 

7、文章:全体的な変動と顕著性分析による赤外線画像と可視画像の融合に基づくマルチスケール分解

引用: Ma T、Ma J、Fang B、他。全体的な変動と顕著性の分析による、赤外画像と可視画像の融合に基づくマルチスケール分解[J]。赤外線の物理学とテクノロジー、2018: 154-162。

論文:https://doi.org/10.1016/j.infrared.2018.06.002

著者: Siwen Quan (クアン・シウェン)

ホームページ: https://sites.google.com/view/siwenquanshomepage

https://scholar.google.com/quotes?user=9CS008EAAAAJ&hl=zh-CN&oi=sra (Google Scholar ホームページ)

 

8、文章:DTCWTと適応型結合クラスタ化辞書を使用した可視画像と赤外線画像の融合

引用: Aishwarya N、Thangammal C B。DTCWT と適応型結合クラスター辞書を使用した可視画像と赤外線画像の融合 [J]。赤外線の物理学と技術、2018: 300-309。

論文:https://doi.org/10.1016/j.infrared.2018.08.013

 

9. 記事: 畳み込みニューラル ネットワーク モデルに基づく赤外線画像と可視画像の融合、およびハイブリッド l0-l1 層分解による顕著性検出 [CNN] [深層学習] [顕著性検出]

引用: Liu D、Zhou D、Nie R、他。畳み込みニューラル ネットワーク モデルとハイブリッド l0-l1 層分解による顕著性検出に基づく赤外線画像と可視画像の融合[J]。電子イメージングジャーナル、2018、27(06)。

論文:https://doi.org/10.1117/1.JEI.27.6.063036

著者:

Zhou Dongming — 雲南大学教授兼博士指導教員
Nie Rencan — 雲南大学情報学部准教授、Ph.D.、修士課程講師 

 

【2017年】

1、文章:グローバルエントロピーと勾配制約付き正則化を使用した可視画像と赤外線画像の融合

論文:https://doi.org/10.1016/j.infrared.2017.01.012

著者: Zhao Jufeng、杭州電子科学技術大学准教授兼マスタースーパーバイザー。

個人ホームページ: http://mypage.hdu.edu.cn/zhaojufeng/0.html

 

2. 論文:赤外線画像と可視画像の融合手法に関する調査   [総説論文]

論文:https://doi.org/10.1016/j.infrared.2017.07.010

著者:

Jin Xin — 2013 年に雲南大学で博士号を取得。
ヤオ・シャオウェン - 雲南大学ソフトウェア学部長
周東明 - 雲南大学教授および博士課程指導教官
ニー・レンカン - 雲南大学情報学部准教授、博士号、修士課程指導教官 

何康健 — 2014 年に雲南大学博士号を取得

 

3、文章:赤外線特徴抽出と視覚情報保存による赤外線と視覚画像の融合

引用:

Yu Zhang、Lijia Zhang、Xiangzhi Bai、Li Zhang。赤外線特徴抽出と視覚情報保存による赤外線と視覚画像の融合、赤外線物理学と技術 83 (2017) 227-237。

論文:http://dx.doi.org/10.1016/j.infrared.2017.05.007(DOI:10.1016/j.infrared.2017.05.007)

コード:https://github.com/uzeful/Infrared-and-Visual-Image-Fusion-via-Infrared-Feature-Extraction-and-Visual-Information-Preservation

著者: Zhang Yu、清華大学博士。

ホームページ:

https://sites.google.com/site/uze1989/

https://uzeful.github.io/

GitHub アドレス: https://github.com/uzeful

 

4、文章:シーンの可視性を向上させるためのウェイトマップガイド付きラプラシアン・ガウスピラミッドを使用した可視画像とNIR画像の融合

引用:

ヴァンマリAV、ガドレVM。シーンの可視性を向上させるためのウェイトマップガイド付きラプラシアン・ガウスピラミッドを使用した可視画像と近赤外画像の融合[J]。サーダナ、2017、42(7):1063-1082。

論文:(DOI:10.1007/s12046-017-0673-1)

コード:https://drive.google.com/file/d/0B-hGkOHjv3gzVnU5Slg2YWZRWVE/view?usp=sharing

 

5、文章:視覚的顕著性マップと加重最小二乗最適化に基づく赤外線画像と可視画像の融合

引用:

Ma J、Zhou Z、Wang B 他 視覚的顕著性マップと加重最小二乗最適化に基づく赤外線画像と可視画像の融合[J]。赤外線の物理学とテクノロジー、2017、82:8-17。

論文:https://doi.org/10.1016/j.infrared.2017.02.005(DOI:10.1016/j.infrared.2017.02.005)

コード:https://github.com/JinleiMa/Image-fusion-with-VSM-and-WLS

著者: Ma Jinlei、北京工業大学。

GitHub アドレス: https://github.com/JinleiMa?utf8=✓

 

6、文章:疎領域における顕著性検出に基づく赤外線画像と可視画像の融合法

引用:

リュー CH 、チー Y 、ディン WR 。スパース領域での顕著性検出に基づく赤外線画像と可視画像の融合手法[J]。赤外線の物理学と技術、2017:S1350449516307150。

論文:https://doi.org/10.1016/j.infrared.2017.04.018(DOI:10.1016/j.infrared.2017.04.018)

 

7. 記事: 畳み込みニューラル ネットワークによる赤外線画像と可視画像の融合 [深層学習] [CNN]

引用:

Yu Liu、Xun Chen、Juan Cheng、Hu Peng、Zengfu Wang、「畳み込みニューラル ネットワークによる赤外線画像と可視画像の融合」、International Journal of Wavelets、多重解像度と情報処理、vol. 16、いいえ。3、1850018: 1-20、2018。

論文:https://www.worldscientific.com/doi/abs/10.1142/S0219691318500182

https://www.researchgate.net/publication/321799375_Infrared_and_visible_image_fusion_with_convolutional_neural_networks

(DOI:10.1142/S0219691318500182)

コード:http://www.escience.cn/people/liuyu1/Codes.html(刘羽)

著者:

劉裕

Chen Xun 教授、博士指導教員

http://staff.ustc.edu.cn/~xunchen/

https://scholar.google.com/quotes?user=aBnUWyQAAAAJ&hl=zh-CN&oi=sra (Google Scholar ホームページ)

成住

http://www.escience.cn/people/chengjuanhfut/index.html

https://scholar.google.com/quotes?user=fMOOhH8AAAAJ&hl=zh-CN&oi=sra (Google Scholar ホームページ)

 

8、文章:トータルバリエーションと拡張ラグランジアンに基づく赤外線画像と可視画像の融合

論文:https://doi.org/10.1364/JOSAA.34.001961

著者: HANQI GUO、YONG MA (馬勇)、XIAOGUANG MEI (梅暁光)、JIAYI MA (馬嘉儀)、武漢大学。

 

9、文章:改良されたマルチスケールトップハット変換と適切な融合ルールを使用した赤外可視画像の融合

論文:https://doi.org/10.1016/j.infrared.2017.01.013

 

10、非サブサンプリングコンターレット変換とスパースK-SVD辞書学習に基づく赤外線画像と可視画像の融合

論文:(DOI:10.1016/j.infrared.2017.01.026)

著者:

蔡佳軍、武漢大学

https://c.glgoo.top/quotes?user=1jAmUp0AAAAJ&hl=zh-CN&oi=sra

 

 

【2016年】

1. 記事:グラディエント転写と総変動最小化による赤外線画像と可視画像の融合(クリックして記事をダウンロード)

引用:

ジャーイー・マー、チェン・チェン、チャン・リー、ジュン・ファン。勾配転送と総変動最小化による赤外線画像と可視画像の融合、Information Fusion、31、pp. 100-109、2016 年 9 月。

論文:https://doi.org/10.1016/j.inffus.2016.02.001

コード:https://github.com/jiayi-ma/GTF

(コード パッケージには、比較実験のために論文で使用されている他の 8 つのアルゴリズムのコードと、画像融合 MATLAB 客観的評価指標関数も提供されます)

著者:武漢大学馬嘉儀氏。

個人ホームページ: http://www.escience.cn/people/jiayima/index.html

 

2、文章:可視画像と赤外線画像の融合のためのマルチウィンドウの視覚的顕著性抽出

引用:

Zhao J 、Gao X 、Chen Y ら 可視画像と赤外線画像を融合するためのマルチウィンドウの視覚的顕著性抽出[J]。赤外線の物理学とテクノロジー、2016、76:295-302。

論文:https://doi.org/10.1016/j.infrared.2016.01.020

著者: Zhao Jufeng氏、杭州電子科学技術大学准教授兼マスタースーパーバイザー。

個人ホームページ: http://mypage.hdu.edu.cn/zhaojufeng/0.html

 

3、文章:顕著性検出を使用した可視画像と赤外線画像の 2 スケール画像融合

引用:

バヴィリセッティ DP、ドゥリ R. 顕著性検出を使用した可視画像と赤外線画像の 2 スケール画像融合[J]。赤外線の物理学とテクノロジー、2016、76:52-64。

論文:https://doi.org/10.1016/j.infrared.2016.01.009

コード:https://www.mathworks.com/matlabcentral/fileexchange/63571-two-scale-image-fusion-of-visible-and-infrared-images-using-saliency-detection

著者:ドゥルガ プラサド バヴィリセッティ

ホームページ: https://sites.google.com/view/durgaprasadbavirisetti/home

(ホームページ右上のDatasetsに各種画像融合データセットが用意されています。 )

https://scholar.google.com/quotes?user=hc0VdQQAAAAJ&hl=zh-CN&oi=sra (Google Scholar ホームページ)

 

4、文章:異方性拡散とカルーネン・レーベ変換に基づく赤外線と可視センサー画像の融合

論文:https://ieeexplore.ieee.org/document/7264981

DOI:  10.1109/JSEN.2015.2478655

コード:https://ww2.mathworks.cn/matlabcentral/fileexchange/63591-fusion-of-infrared-and-visible-sensor-images-based-on-anisotropic-diffusion-and-kl-transform?s_tid=FX_rc2_behav

著者:ドゥルガ プラサド バヴィリセッティ

ホームページ: https://sites.google.com/view/durgaprasadbavirisetti/home

(ホームページ右上のDatasetsに各種画像融合データセットが用意されています。 )

https://scholar.google.com/quotes?user=hc0VdQQAAAAJ&hl=zh-CN&oi=sra (Google Scholar ホームページ)

 

5、文章:ガウスフィルターとバイラテラルフィルターによるハイブリッドマルチスケール分解による赤外線画像と可視画像の知覚的融合【HMSD】

次のように引用します:

Zhiqiang Zhouら。「ガウスフィルターとバイラテラルフィルターによるハイブリッドマルチスケール分解による赤外線画像と可視画像の知覚的融合」、情報融合、30、2016

論文:https://doi.org/10.1016/j.inffus.2015.11.003

コード:https://github.com/bitzhouzq/Hybrid-MSD-Fusion

または: https://www.researchgate.net/publication/304246314

著者:周志強、北京工業大学オートメーション学院准教授

ホームページ: http://ac.bit.edu.cn/szdw/jsdw/mssbyznxtyjs_20150206131517284801/20150206115445413049_20150206131517284801/index.htm

GitHub アドレス: https://github.com/bitzhouzq

 

6、文章:暗視コンテキスト強化のための赤外線画像と可視画像の融合

論文:https://doi.org/10.1364/AO.55.006480

コード:https://github.com/bitzhouzq/Context-Enhance-via-Fusion

著者:周志強、北京工業大学オートメーション学院准教授

ホームページ: http://ac.bit.edu.cn/szdw/jsdw/mssbyznxtyjs_20150206131517284801/20150206115445413049_20150206131517284801/index.htm

GitHub アドレス: https://github.com/bitzhouzq

 

【2015年】

1、文章:可視画像と赤外線画像の注意に基づく階層的融合

論文:https://doi.org/10.1016/j.ijleo.2015.08.120

著者:

チェン・ヤンフェイ、准教授、修士課程の家庭教師。

ホームページ: http://eie.wit.edu.cn/info/1067/1028.htm (教師のホームページ)

Sang Nong 氏、華中科技大学オートメーション学部教授兼博士指導教員

ホームページ: http://auto.hust.edu.cn/info/1154/3414.htm (教師のホームページ)

 

【2014年】

1、文章:非負のスパース表現を用いた赤外線画像と可視画像の融合法【NNSR】

引用:

Wang J 、Peng J 、Feng X ら 非負のスパース表現を使用した赤外線画像と可視画像の融合法[J]。赤外線の物理学と技術、2014 年、67:477-489。

論文:https://doi.org/10.1016/j.infrared.2014.09.019

著者: Wang JunPeng JinyeFeng XiaoyiHe Guiqing (ノースウェスタン理工大学)

 

2、文章:ターゲットの分離とスパース表現に基づく赤外線画像と可視画像の融合アルゴリズム

引用:

Lu X、Zhang B、Zhao Y 他 ターゲットの分離とスパース表現に基づく赤外線画像と可視画像の融合アルゴリズム[J]。赤外線の物理学と技術、2014 年、67:397-407。

論文:https://doi.org/10.1016/j.infrared.2014.09.007

著者: Lu Xiaoqi、Zhang Baohua、Zhao Ying、内モンゴル科学技術大学

Lu Xiaoqi 氏、内モンゴル科学技術大学情報工学院教授兼博士指導教員。

ホームページ: http://graduate.imust.cn/info/1063/2860.htm

Zhang Baohua は、内モンゴル科学技術大学情報工学部の准教授兼マスタースーパーバイザーです。

ホームページ: http://graduate.imust.cn/info/1063/2331.htm

Zhao Ying は、内モンゴル科学技術大学情報工学部の講師兼マスタースーパーバイザーです。

ホームページ: http://graduate.imust.cn/info/1063/2409.htm

 

===================== 分割========== カット========== 線====== ===============

PS: MATLAB バージョンがアップグレードされると、初期のコードで使用されていた一部の関数が削除され、実行エラーが発生する可能性があります。解決策は、コンピューター上に以前のバージョンの MATLAB を保存しておくことです。次に、使用する関数をコピーしてコード フォルダーに貼り付けます。

著者のレベルが低いため、最新の論文を集めてまとめていない部分もありますが、皆さんもぜひ議論・交流してください!

ご質問がある場合は、2458707789@ qq.com までご連絡ください。お名前と学校をメモしてください。

おすすめ

転載: blog.csdn.net/fovever_/article/details/106585576