学習の深さについての一般的な面接の質問と回答

モデルが収束しない場合は、無効なモデルならば訓練プロセス1.は、そう?何が収束しないモデルの原因は?

  このモデルは無効で説明することはできません、多くの理由のための非収束モデルで、その結果、それは、非常に良いモデルの効果を調整することができます。

理由:

  • データ分類ラベルは正確ではありませんが、サンプルは、情報量が全体のサンプル空間に合うように十分ではありませんモデル化するには大きすぎます。
  • ボラティリティーしやすい多くの学習率の設定は、非収束につながる小さすぎます。
  • 分類タスクは単純なモデルによって複雑にすることができます。
  • データは正規化された操作ではありません。

https://blog.csdn.net/weixin_35479108/article/details/96981548

勾配が消滅である何2.?

  速度学習ニューラルネットワーク、この表面層は隠れ層、分類または認識精度の数を増加させる目的で、中間層の背後に隠された学習速度、すなわち、より低いが減少しました。この現象は、勾配の問題が消えると呼ばれています。

画像鮮鋭化処理や平滑化操作?

  鮮鋭化は、を介して行われ、高周波数成分を高める画像エッジを強化することも、画像ノイズを増大させながら、画像のぼけを低減します。
  平滑化およびコントラスト、鮮鋭化高周波成分フィルタリングを、ノイズ低減画像の画像がぼやけています。

どこに良いより4 Reluシグモイド効果?

  シグモイド誘導体のみ0の近傍で好ましくは、活性化され、正と負の飽和領域における勾配は、拡散勾配現象が生じる、0になる傾向、及び部分relu勾配が定数0より大きいているので、何も存在しません拡散勾配現象。より高速な派生Reluを計算しました。Relu負の半分の領域の微分が0であるニューロンの火災、勾配0、値が負で、ニューロンはスパース性を持つ、この研修に参加しません。

5.してください簡単には、何であるかの3 * 3コンボリューション・カーネルを使用してのVGGの利点を説明しますか?

  2 3 * 3畳み込みカーネルシリーズや5×5畳み込みカーネルは、前者が少ないパラメータがあり、野生の同じ認識を持っています。複数の3 * 3、非線形関数複数の層を有するコンボリューションカーネルよりも大きなサイズのコンボリューションカーネルは、より多くの決定機能の判断に、非線形性の発現を増加させます。

https://www.cnblogs.com/zhangyang520/p/10969960.html

公開された378元の記事 ウォン称賛43 ビュー40000 +

おすすめ

転載: blog.csdn.net/weixin_43283397/article/details/105130298