TASK 4モデルパラメータの調整

TASK 4モデリングアシスタント
「-Task4モデリングパラメータ調整をマイニングDatawhaleゼロベースのエントリデータ」から要約-小雨

モデル構築

1)PythonのSklearnで一般的に使用されるモデルのライブラリがうまく統合されている、といくつかの統合学習も含まれています。また、一般的に良い結果で使用される関連XGBoostモデルとLightGBM競争モデルです。それはピップでインストールすることができます。回帰モデルは、一般的に主にMSE損失関数を使用していました。
2)回帰モデル:線形回帰モデル、なげなわ回帰、リッジ回帰。利用可能な方法は、最小二乗最適化および勾配降下が含まれます。
3)統合学習モデル:エラーモデルのサンプルを重み付けすることによって技術サンプルを高めながらバギングなどと主に重み付けモデルを袋詰め複数の、技術を昇圧アンサンブル学習は、モデル間の差がなければならないが、学習に焦点を当てます。XGBoostとLightGBMは、集積学習として、モデルの汎化能力を向上させることができます。
4)回帰モデル、統合モデルは、組み込み機能として援助の特性を評価するために選択することができます。

性能検証

クロスバリデーション法トレーニングデータセットを検証セットとして選択され、それぞれがN個の部分に分割されていてもよい1)、リーブ・ワン・検証モデルを評価、クロスバリデーションによって得ることができる、他のモデルをトレーニングするトレーニングセットは、このトレーニングの通りでありますN回のプロセスの合計。
2)曲線はモデル過剰適合に見出すことができるかどうかを速度、およびプロットされた曲線の検証、検証学習。

モデルパラメータの調整

1)主なタスクは、動作しているパラメータ最適化モデルのために異なる最適化アルゴリズムを使用して、ターゲットの評価モデルのパラメータ調整をモデル化することです。
2)貪欲アルゴリズム:貪欲アルゴリズムは、主に前提を使用して局所解、貪欲な戦略の意味があるの最良の選択肢であるとするとき、常に現在の現れで作られた問題解決、とを意味している地元の最適化戦略これは、グローバル最適なソリューションにつながることができます。
3)スケジュールは、メッシュ:このメソッドは、パラメータとリターンパラメータの最適な組み合わせのすべての組み合わせを試すことにより、ループスルーです。しかし、この方法はあまり効率的です。
4)スケジューリングベイズ:目的関数の最小値を見つけるために、代替のメイン関数(確率モデル)を作成し、異なるランダム/グリッドとベイズ法は次の一連のその過去の試みの結果に基づいて、目的関数により評価しました。以前の結果の評価は、基準時間パラメータを超えます。

個人的な理解と概要

1)異なるデータセットのための多くの回帰モデルと同様に、サポートベクトル回帰、ニューラルネットワーク、ニューラルネットワークモデルの深さを含め、さまざまなモデルがありますが、今の処理のため分類問題に戻って変換するいくつかの方法があり、さまざまなビジネス上の問題は、さまざまなソリューションを持っています。だから、ビジネス上の問題のために、我々は、異なる性能モデルを試してみる必要があります。
2)モデルのパラメータ調整の性能を向上させる手段は、ニューラルネットワーク、ニューラルネットワークモデルの深さ、ハイパーパラメータ非常に多く、法の無い均一なアプリケーションとして、また非常に重要です。モデルの技術的性能を高めるために、パフォーマンスチューニングパラメータを必要とします。ニューラルネットワーク、効率的な技術の浅い深さ知識ずっとパラメータ調整、マルチ深さ探査する必要の現在の理解のために。

天池は例の練習を予測するために、車の価格を使用しました:

最適化パラメータの調整を最適化するためのグリッド技術を使用しながら、1)の特性に基づいてプロジェクトは、クロスバリデーション、XGBoostモデリング分析方法の半分を使用します。

リリース5元の記事 ウォンの賞賛0 ビュー331

おすすめ

転載: blog.csdn.net/lybch1/article/details/105232214