正則(L1、L2)とドロップアウト

正則:

L2:

 

 

 

正則化重みは、縮小され、比が低下します

 

  

 

 

 

私たちは、最初のモデルを構築しました:

 

 

                      

 

私たちは、第2のモデルを構築しました:

 

 

                                                                   

 

 

 

 L1:

 

 

 

 

脱落:

 

半分を削除して前方を更新し、更新パラメータ(w及びB)の拡散を逆転、その後だけ削除神経回復、再ランダムに選択された削除の半分

 

 

 

 オーバーフィッティングを削減する別の方法:

 

おすすめ

転載: www.cnblogs.com/fenglivoong/p/12530725.html