GAN原則(GAN CHANGノート)

我々は通常GANでGernerationを行います。

画像Xについて、その高次元空間に分布通常の人気。下の図では、青色の領域は、我々のデータベースにだけ大きなポイント確率が位置しています。

そこで、画像生成の主な仕事は、それが何であるのか?

元のデータの分布を定義するために、セットを与えるために\シータ確率モデルパラメータとしてP_ {G}(X、\シータ)、モデルは、学習ジェネレータによって得ることができます。我々は願って、それは適切なパラメータを見つけることである\シータX確率Gは、の分布によって定義されたサンプルの元のデータセットように、P_ {G}(X、\シータ)確率はできるだけ大きく現れます。

このようなパラメータを見つけるために、我々は、m個のサンプルを無作為に選択し、各試料に到達する確率が計算に基づいて生成されたデータベースを開始することができるP_ {G}(X ^ {\シータ}; \シータ)多重これらM次いで、サンプルに対応する確率、対応する尤度を得ること機能。

 また、指定された尤度関数は、我々が得た最尤推定パラメータを見つける\シータ^ {*}だけでなく、KLダイバージェンス生成された画像と実際の画像が最小になるように起こります。

私たちの発電機は、ネットワークの性質上で、ネットワークは確率分布を定義してP_ {G}(X)、我々は期待しているものP_ {G}(X)P_ {データ}(X)できるだけ近いです。質問は取得する方法であるP_ {G}(X)ことを? 

我々は関係なく、脇に彼の前の質問を置く。我々は見て弁別になりました。

私たちは知りませんが、P_ {G}(X)P_ {データ}(X)具体的な形が、私たちは本当の絵をサンプリングし、画像を生成することができます。

与えられた発電機のために、私たちは次の図の損失関数を最適化したい、クロスエントロピー損失関数は、2クラス問題の形式と非常によく似ています。 

 私たちは、実際の画像とは、小さな発散して画像を生成する際に、弁別が真の姿を識別し、画像を生成することが困難であることがわかりました。両方が大きな広がりを持っている場合しかし、弁別器は比較的容易にそれらを識別することができています。

次に、我々はそれを解決しなければなりませんD ^ {*}。 

我々が見つかりました。D ^ {*}正確に対応P_ {データ}し、P_ {G}JSの発散を。 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

公開された98元の記事 ウォンの賞賛5 ビュー10000 +

おすすめ

転載: blog.csdn.net/chengsilin666/article/details/87870279