タイトル: 敵対的生成ネット
まとめ:
略記:著者は、2 つのモデルが同時にトレーニングされる、敵対的プロセスを介したフレームワークを提案しています。
最初のモデルは生成モデル G で、データ全体の分布を把握するために使用されます。
2 番目のモデルである識別モデル D は、サンプルが G から生成されたかどうかを推定するために使用されます。
G と D が MLP の場合、実際のシステムは完全に誤差逆伝播を通じてトレーニングできます。
序章:
略記:このフレームワークには 2 つのモデルがあり、1 つは生成モデル、もう 1 つは識別モデルです。
生成モデルは偽札を作る偽造者のようなものです
判別モデルは、警察が本物のお金と偽物のお金を区別するのと似ています。
この過程で、偽造者は引き続き偽造能力を向上させ、警察も引き続き識別能力を向上させます。
モデル:
このフレームワークの最も単純なアプリケーションは、ジェネレーターとディスクリミネーターが両方とも MLP である場合、ジェネレーターはデータ X の pg と呼ばれる分布を学習する必要があることです。z を x にマッピングする事前の pz を定義します。ディスクリミネーターには独自の学習パラメーターもあり、データを入力し、そのデータが実際のデータからのものなのか、ジェネレーターによって生成されたデータからのものなのかを判断するために使用されます。
最小最大等化関数:
min max: 平衡に達すると、D は進行できず、G も進行できません。
GAN の最終リクエストの結果:
ディスクリミネーターは、ジェネレーターによって生成されたデータと実際のデータの間の分布とまったく区別できません。
理論的結果:
生成器Gが固定されている場合、このようにして識別器Dの最適解が計算される。
G と D に十分な容量がある場合、各ステップ D が最適解に到達できるようにします。その後、G の最適なタイムゾーンに対して次のステップを繰り返すと、この G は最適解に置き換えられ、最終的な Pg は次のようになります。 Pdata に収束します。
要約:
GAN が何を行っているかに焦点を当てた、非常に明確な記述です。
関連する仕事では、以前の仕事でも行った私自身のアイデアをたくさん書きました。また、本当に素晴らしい仕事には、自分のアイデアが他の場所に掲載されているかどうかは関係ないとも言いました。
3 番目のブロックは、GAN 全体の目的関数とそれを最適化する方法を紹介します。
4 番目のブロックでは、目的関数がなぜ最適解を得ることができるのか、いくつかの証明について説明します。