記事の基礎学習機 - 「機械学習」ズハウ・ジワを

機械学習のコンセプトは何ですか?学ぶための機械学習とは何ですか?

1.機械学習は、人間の行動のマシンシミュレーションによって学習されます。
2.機械学習科学は、この経験が、モデルとしても知られ、機械学習は、オブジェクトデータ、データの経験からの学習の目的で、実験データです。

汎化能力とは何か、私たちはどのような方法からモデルの一般化を訓練する当社の能力を向上させることができますか?

1.一般化:モデルは、新たなサンプルを得るために学習する機能に適用されます。
2.トレーニングサンプルを増やし、より多くの情報をサンプル空間を取得し、訓練されたモデルの汎化能力を高めることができます。

接触仮説スペースとの違いは何ですかスペースバージョンですか?

1.良いメロンとは何ですか?私たちは確認されていませんか良いメロンが何であるかを知らない、彼らはノックの音がうるさいメロンは良いですが表明され、肉茎が丸くなっている、その色が緑色であると仮定すると、最初の仮説を作ることができ、これは、ある仮説
2.仮定した空間には、例えば、構成可能なすべての仮説の集合であり、当事者のいずれかの知識がない場合には、任意のメロンは良いメロンである可能性が高いです。
訓練は色のみが、茎が丸くなっている、緑で設定されている場合3.仮説のセットと一致訓練セットが音をノックし、例えば、バージョン空間と呼ばれるが、大声でメロンが良いですが表明され、その後、色が緑色である、肉茎が丸くなっています、大声でノック音がトレーニングセットのスペースのためのバージョンです表明しました。
4.もちろん、バージョン空間はサンプル空間のサブセットです。

何が好みのコンセプトをまとめ、それが役割ですか?

1.仮定嗜好の学習処理特定のタイプに機械学習アルゴリズムは、と呼ばれる「誘導優先」。
2.役割:トレーニングは仮説と一致セットはメロンとの新しいメロンの到着仮説はBではない裁判官につながる可能性が悪いメロン、であると仮定して良い裁判官、裁判官であるため、複数のかもしれません。好ましいのは、この役割に要約されている、例えば、我々は仮説を好む、その後、直接新しい裁判官にこのメロンは良いメロンです。

このような状況を避けるために、どのように?underfitting、オーバーフィッティングは何ですか?

な緑の楕円形など、すべての可能性のサンプルを、持っています現象の一般的な性質の訓練サンプルとして、独自の特性の一部を入れては過剰フィッティング誤ったモデルを、学習サンプルとして2ギザギザの葉の一種:過フィッティング1鋸歯状の葉が考慮されなければなりません。
2. underfitting:まだ学ぶべき現象の一般的な性質の学習サンプル、などunderfittingモデルとしては誤っている限り、緑の葉になると信じています。
3. underfittingは、トレーニングを増やすことによって克服することができます。
4.あなたは完全にオーバーフィッティングを避けることはできません。

クロスバリデーションとは何ですか?クロスバリデーションを使用する場合は?なぜ?

1.クロスバリデーション:テストセットの残りのサブセットとして、K-1の各サブセットと、同様のサイズのk個の互いに素なセットにサンプリングし、トレーニングセットとして設定することにより、階層データセットは、であってもよいです-kは二次訓練および試験、そして最終的にk平均試験結果に戻ります。
クロスバリデーションサンプルデータ2.新しい試料を用いた場合に得られることができない、制限されています。

モデルの性能を評価する方法?一般的なパフォーマンス指標は何を使用?

パフォーマンスメトリックの1.評価。
2.一般的な性能指数
(1)誤り率、精度、
(2)精度、再現率とfl
(3)ROC、AUC
(4)誤り率とコストに敏感なペナルティ曲線

どのような偏差と分散?オーバーフィット、どのような偏差と分散に対応し、underfitting?

1.偏差対策学習アルゴリズム自体フィット機能を特徴づける実績の乖離の程度を予測することが期待学習アルゴリズム。
2.分散データの影響による外乱を特徴づけるトレーニングセットの結果と同じサイズの性能のばらつきを学習の変化を測定します。
図3は、少し偏差、分散大きい場合を過剰適合に対応します。
大きな偏差に対応する4 underfittingは、分散が小さい場合です。

どのようなことの正規化機能?なぜ正常化?一般的な正規化の方法があるのですか?

正規化されたデータの後1.元のデータ、同じ大きさの順に各インデックス。
総合的な比較評価のために2。
3.一般的な正規化方法は、
(1)線形関数の正規化:線形変換処理[01]の範囲に元のデータの線形関数。
(2)正規化0意味:オリジナルのデータセットの正規化方法を意味する0は、ゼロ平均、データセットの分散に正規化されます。

勾配降下アルゴリズムは何ですか?少量の確率的勾配降下、確率的勾配降下法を説明します

1.勾配降下:急勾配関数は低下の程度を反映することができるが、勾配降下アルゴリズムは、最適解が見つかるまで、このプロセスが繰り返され、すなわち、最小勾配方向前方に特定のステップで、最も急な方向に沿った関数です。
2.確率的勾配降下法:確率的勾配降下法は、トレーニング速度が、精度が低下するようにパラメータを更新するために、1つのサンプルそれぞれの反復を使用しています。
確率的勾配降下法の3少量:定常減少の両方ランダム特性、及び計算の少量です。全体的なサンプルの各反復は、損失関数のサンプル計算の小さなグループを選択したが、サンプル選択の数が明確に定義されていません。

おすすめ

転載: blog.csdn.net/weixin_41566127/article/details/90522270