(2014-ECCV)画像超解像のためのディープ畳み込みネットワークの学習

  単一の学習方法への記事の深さは、超解像画像で紹介しました。また、超解像度モードを達成するために、(スパースコーディング)をコーディング従来のスパースは畳み込みニューラルネットワークの深さと見なすことができることを示します。しかし、個々のコンポーネントを処理する伝統的な方法とは異なり、この方法は、すべての層の同時最適化を提案しました。

  最先端の方法は、サンプルの大部分に基づいている: - マッピング関数を学習するための低解像度画像のいずれかの内部画像類似の開発、いずれかの外部の高いから。多くの場合、サンプルの多くを必要とするが、困難な外部の画像ベースのアプローチの学習をモデル化効果、集中的なデータに直面するだろう。

  外部の、スパースコーディングに基づいて試料の超解像画像における代表です。手順は次のとおりです。

  ①密ソース画像と前処理と重複する画像ブロックから抽出されました。

  辞書の低解像度の②符号化画像ブロックと

  ③疎係数は、高解像度、高解像度画像ブロックを再構成するために辞書に渡され、その後、それらの画像ブロックは、出力画像を生成する重合されます。

  前の超解像方法は、特に方法やビルド辞書は、辞書学習と最適化に焦点を当てているが、他のステップの同じ最適化の枠組みの中で稀に最適化されていないか、考慮しなければ。上記の手順のスパースコーディング本稿ショーは、畳み込みニューラルネットワークの深さに相当します。そして、外部の超分解能法のこれらの既存の画像のブロックのサンプル画像に基づいて異なっている、SRCNNは、提案された高解像度画像の端までの低解像度画像からマッピングされ、学習辞書を介して暗黙的に隠された層を実装抽出および重合は畳み込み層によって実行され、そして全体のプロセスは、ほとんど前処理以降の処理を学習しないことによって達成されます。

  この論文の三つの主要な貢献は次のとおりです。

  ①超解像のために畳み込みニューラルネットワークを提案しました。高解像度の低解像度画像の学習ネットワークダイレクト・ツー・エンドのマッピング、および最適化プロセスはほとんど前処理又はその後の処理ではありません。

  伝統的なアプローチに基づく係数を学習し、符号化深さに基づいて、超解像方式の②確立。この関係は、ネットワーク構造の設計のためのガイドを提供します。

  ③この古典的なコンピュータビジョンの問題に超解像深さの研究で証明有用であり、優れた品質と速度を達成することができます。

  特定の実装においては、ターゲットサイズにバイキュービック補間の最初のリフティングは、画像と称する低解像度画像、検討Yプロセス全体の唯一の前処理です。目標は、にあるYのに戻りF(Y)可能な限りグランドトゥルース高解像度の画像となるようにすることを、X我々はマッピングを学ぶことを望むので、似ているFの3つの操作が含まれていると、これらの操作は、畳み込みニューラルネットワークを構成しています。

1、パッチ抽出及び表現(ブロック抽出及び発現):低解像度画像ブロックから画像を抽出し、Yは、これらのベクトルの系列からなる、高次元のベクトルを表し、は、特徴マップの数に等しく、第1の層はF1、各として示されN1抽出した画像ブロック次元の特徴

図2に示すように、非線形マッピング(非線形マッピング)次元ベクトルにマッピングN2次元ベクトルN1

3、再構成(再構成):従来の方法と重複する画像全体の画像ブロックの平均値を再構成することで、そのような平均は、フィルタ特性マップの一連とみなすことができる、最終的な層の畳み込み結果を生成することが可能です

 

   連絡先のスパースコーディングの:

入力画像のフィルタ処理リニア①入力画像から抽出された低解像度画像F1 * F1ブロックサイズを、辞書の平均サイズを減算することにより、およびN1→f1のN1で投影* F1

②スパースは、高分解能線形畳み込み辞書N2→上に投影されるN2係数を符号化した後

  測定し、そのため高いPSNRを好むMSEと、ネットワーク全体の機能の喪失。他のSR法、うまくSRCNN効果と比較した場合。あなたは、フィルタのサイズを大きく、ネットワークのサイズを大きく、セットの訓練の数を増やした場合に加えて、ネットワークのパフォーマンスが向上しています。

  一般的に、従来の超解像画像は、スパースコーディング畳み込みニューラルネットワークは、深さを再現するために使用することができるされ、この軽量構造の効果が良好であることが最先端のと比較に基づいて、そしてためのその単純さと堅牢性だけでなく、SRおよび他の低レベルの視覚障害を達成しながら、像ぶれやノイズ除去のために使用されます。

 

  

おすすめ

転載: www.cnblogs.com/rainton-z/p/11880895.html