ニューラルネットワークの過剰適合

私は、元のデータの一般的な分割はトレーニングセット、検証セット、三つの部分にテストセットに分けている理由についてお話しましょうか?

役割は、モデルのパラメータを調整して、鉄道模型データ、超検証データの役割を訓練なぜ試験データに直接パラメータを調整することではないでしょうか?データのバックアップは、テスト内のパラメータを調整する場合ので、その後、訓練進むにつれて、私たちのネットワークは、昨年秋に取得したインデックス参照値の試験データが得られ、我々のテストデータにフィット上で少しは実際にあります。

まず、ニューラルネットワークモデルを訓練するために、我々明確な目標は、それが良いフィッティング能力を(一般的なテストセットが未知の文字データとして作用する)があるので、どのように直感的なモデルがフィットしていたかどうかを判断するためにも未知のデータであるということなのですか?モデルはトレーニングセットに優れた性能を持っていますが、テストセットのパフォーマンスが良いようでない場合は、オーバーフィッティング可能性が高いということです。

だから、ニューラルネットワークでは、オーバーフィッティングの問題を解決するためにどのように?

問題によると、問題を解決します

データの過剰適合の観点から(A)結果

1.トレーニングデータセットは、オーバーフィットには小さすぎます

データセットは、過剰なニューラルネットワークパラメータの設定によって、小さすぎる場合には、簡単にこの時点では、オーバーフィッティングにつながるには、トレーニングデータを増加させ、または他のより適切なモデルを選択する必要があります。

オーバーフィッティング2.トレーニングデータの不均衡リード

トレーニングデータがバランスされていない場合は、明らかにこのモデルは、それが提供する情報が多いので、このような状況は、最初に検討する必要がありバランスの取れたデータ、データの強化であり、具体的にはデータがないかを参照して、クラスのためのより多くのデータをフィットする傾向がありますバランス。

(B)オーバーフィッティングモデルによって引き起こされます

データが比較的バランスし、十分なトレーニングデータが残っていたフィッティングであれば、我々は、ビューのモデルポイントから開始する必要があります

1.単純化したモデル

モデルを減らすための最も直接的な手段は、層の数や隠れ層モデルのノード数を削減する単純化したモデルです。

L1正則:L1正則パラメータを0に近づける傾向がある、これは簡単にパラメータモデルNATURALの削減に相当し、0になります。同時に共通の特徴として、全データの特徴ため、特定のデータの上にある程度のモデルを当てはめる、これらの固有の特性があまり重要ではないかもしれない、対応するパラメータが小さすぎると、それはL1となる0

L2正則:L2正則化パラメータは、速度が低下し加速し、データを収めることができる小型のパラメータモデルが少なくなると、オーバーフィッティングの可能性を減らすために、(この規則はまた、オッカムの剃刀として知られている)ちょうど収まります。

また、容易にオーバーフィットにつながる、対応するパラメータが大きいとすることができる上の機能の一部に固有のデータの数を適合させるために複数のデータ・ネットワークに適合させることができ、あまりにも多くのパラメータ、モデルを簡略化し、軽量化これにより、オーバーフィッティングを防ぎます。

より一般的な抽出の2キャラクタリゼーション

ニューラルネットワークは、ニューラルネットワークを訓練するために、出力マッピングへの良好な入力が完了し、モデルの汎化能力が十分に良いです、エキスには、この優れた特性の必要され、非線形多機能クラスターとして理解することができます

生産減少フィット、このような一般化モデルは、特性が十分に強いではない一般の抽出を説明しました。

ドロップアウトは、各ノードが固定されていないため、それぞれの重みが大きすぎないように、片手モデルを容易にする上でネットワークノードの乱数がこれらの特定の抽出組成物を回避するために、他方では、不活性化、不活性化を訓練ように、導入されしたがって、抽出液を特徴づけるために、より一般化モデルに貢献する、唯一の特性の下で動作します。

多くのドロップアウトの利点は、モデルの一般的な側面は、特定の参照、オーバーフィッティング脱落を防止するために使用されるhttps://www.cnblogs.com/dyl222/p/10959481.htmlがドロップアウト細部に持っています。

おすすめ

転載: www.cnblogs.com/dyl222/p/12127932.html