gan7

文献阅读:最初の画像の劣化を行う方法を学ぶためにGANを使用し、画像超解像を知るために

免責事項:この記事はブロガーオリジナル記事です、続くBY-SAのCC 4.0を著作権契約、複製、元のソースのリンクと、この文を添付してください。
このリンク: https://blog.csdn.net/alxe_made/article/details/85912963

記事のアドレス:https://arxiv.org/abs/1807.11458
プロジェクトアドレスの:Pytorch:顔と像超解像

1.はじめに

    これは、記事の人間の顔と超解像再建の絵で、主要な問題の現在の超解像再構成は、実世界画像の超解像復興に焦点を当てています。SR LRを得るための伝統的な方法は、次に、双線形ダウンサンプリングすることによって行わブラーカーネルにサンプリングまたは双線形によるような人工的な手段を得ます。しかし、実世界の画像は、スポーツ、デフォーカス、圧縮、複雑な状況のセンサノイズとして、複雑な劣化モデルを持っている傾向があります。だから今、いくつかの主流のSR再構成法はよく人工LR画像に影響を与えるかもしれないが、パフォーマンスは、現実世界の映像には必ずしも良好ではありません。また、同様の仕事をして記事の現実世界画像再構成CVPR2018について、「ゼロ・ショット」超解像使ってディープ内部学習あなたは私のブログを参照することができ、画像超解像再構成2に適用される深さの調査記事は、簡単な紹介を与えています、。

    この記事では、2つの主要な技術革新があります。最初のものは、2段階のプロセス、すなわち、HighからLow GANとLowからHigh GANを提案することです。第一段階では、我々は、異なる使用することができる不対のようなセレブ-A、AFLW、LS3D-によって設定された高解像度画像データとして、データセットを W とVGGFace2組成物、または低解像度画像データはWiderfaceを設定します。第二段階は、とと、出力ステップを使用して GAN低解像度から高解像度をトレーニングするためにトレーニングデータ。私たちはモデル化して、降格組のデータセットを取得した後、第二段SRにすることを学ぶ最初の段階に相当します。もう1つの技術革新は、大きな損失としてL2損失の前に記事の著者が、カウンセリングなどGANの損失です。そして、ここで著者はGAN-中心に提案し、それはカウンセリングとして支配的な、ピクセル損失としてGAN損失です。

2.ネットワーク入門

    示されるようにメインフレーム。
ここに画像を挿入説明

主に2つの段階に分け:HighからLowとLowからHigh

2.1 HighからLow

    メインステージは、完全なHR画像分解プロセスです。まず、我々はHR入力画像とランダムノイズの正規分布であり、そしてそれらを連結し、ハイからローへのネットワークを介してネットワーク、彼は前ResNetsの中に使用作られた通常のResNetsのスタックであり、 -活性化とBatchNormを使用しないでください。以下に示すよう:
ここに画像を挿入説明
    一方、我々はまた、現実世界の映像であるLRのデータセットを使用する必要があり、その後、区別するために、このネットワークGAN LRとSR画像入力判別器を使用し、この弁別器は、一般的に調停を使用しています。前にも損失の著者は、2つの側面のGaNから構成され、他方が損失の画素であることを特徴とします。しかし、ここでネットワークのGAN-中心に、ピクセルの損失だけ加速訓練、いくつかの詳細の保証人の顔画像です。これはHR-> LRプロセスであるようなランダムノイズは、ここで入力されているので、まだ解決策がたくさんあるでしょう、したがって、ランダムノイズの存在は、私たちは、多様性を現実の多様性をシミュレートすることができます:別の態様は、注意する必要があります。下図のように:
ここに画像を挿入説明

2.2 LowからHigh

    第一段階の主な役割は、2件の異なるデータがHighからLowネットワーク、学習処理の画像劣化、LowからHighネットワークをペア取得する入力データセットに登録解除入力を設定します。
その後、ASは、三つのグループを使用して、図ジェネレータネットワークに示します。次に、ネットワークを識別し、上記と同様です。
ここに画像を挿入説明

2.3損失関数

   次のように全体の損失関数が定義されています。

l=αlpixel+βlGANl=αlpixel+βlGAN l = \alpha l_{pixel} + \beta l_{GAN} l=αlpixel+βlGAN

    一般来说αlpixel&lt;βlGANαlpixel&lt;βlGAN \alpha l_{pixel} &lt; \beta l_{GAN} αlpixel<βlGAN , 这个就表示我们是GAN损失占主导。这里的pixel损失就会常规的MSE损失。而对于这里的GAN损失,作者发现WGAN-GPSN-GAN表现差不多。作者在本篇文章中选择了后者,也就SN-GAN。这是发表在ICLR2018上的一篇文章,个人感觉还是一篇很好的文章,下面贴一下链接大家可以自己看一下:

  1. Spectral Normalization for Generative Adversarial Networks
  2. 知乎:如何评价Ian Goodfellow由衷赞赏的训练稳定方法SN-GANs?

3. 实验

    HR画像LR画像のない唯一のテスト・セットは、私たちは伝統的に使用することはできませんので、テスト段階で、PSNRSSIMを評価指標として、ここでは、ここで使用されているフレシェインセプション距離(FID) 小さいより良いが。この記事は参考記事について投稿NIPS2017、に掲載されました:

  1. 地元ナッシュ均衡に2つの時間スケール更新ルールコンバージによって訓練ガンズ
  2. GAN評価指標の総合評価テスト6種類、GANの定量的評価に向けた重要なステップ

4.結果

上の定量分析:
ここに画像を挿入説明

定性分析:
ここに画像を挿入説明

5. 感想

個人的に私は、これは非常に良い記事ではなく、シンプルな灌漑だと思います。私たちは、実世界の画像の超​​解像の再構築に焦点を当てます。2つの革新を提案しました。

  1. 人工LRの伝統的な使用が道に生成され、ここで著者は、2つの段階に再構築されます。第一段階は、分解プロセスを研究することであり、対を用いて再構成データの第二相。
  2. GAN中心提案損失関数計算。
  3. 小さな明るいスポットが評価指標としてFIDを使用することでもあります。

おすすめ

転載: www.cnblogs.com/skydaddy/p/11684640.html