xgboostと比較GBDT; xgboostとlightGbm

GBDT VS XGBOOST

XGBoostは線形分類器(gblinear)、等価XGBoost L1とL2のカノニカル正則化項のロジスティックス回帰この時間(分類)をサポートしながら、CART分類器のような従来のGBDT基においては、特に、勾配の決定木アルゴリズムを強化しますまたは線形回帰(回帰問題)
 2.従来GBDTのみ、二次テイラー展開のためのコスト関数xgboost、一次導関数の情報を使用する第一および第二次導関数を使用しています。
 3. xgboostコスト関数は、制御モデルの複雑さのための正則化項を追加しました。ツリー内のリーフノードの数、各ノードとリーフにL2モード出力スコアの正方形を含む正則用語。ビューのバイアス分散トレードオフの観点から、正則はGBDTの伝統的な特性よりもxgboost優れている、オーバーフィッティングを防止するために出て学ぶためにモデルやすくするために分散モデルを削減します

 

分類器に関しては、次の文は正しくありません()

正しい答え:あなたの答えC:D (エラー)

SVMの目標は、できるだけ多くのを見つけて、構造的リスクの最小化に属する学習データの別々の分類の最大間隔超平面を作ることです
ナイーブベイズは、それがそれぞれのための変数独立したものとする、特殊なベイズ分類器です。
Xgboostは、利点は、高速を含め優れた統合アルゴリズムであり、外れ値に対して敏感ではない、カスタム関数のサポート、およびその損失
ランダムフォレスト列サンプリング処理をランダム性を確保するために、そうでもありません剪定ではなく、オーバーフィッティングしやすい場合。
残差のすべての木の前に学んだと結論されているすべての木のGBDTコアは、残価予測はほとんど本当の価値が累積量、xgboostとGBDTを取得するためのプラスですが、また、線形分類器をサポートしています
xgboostは非常に速いが、外れ値に非常に敏感で、損失関数をカスタマイズすることができます
 
 

 


 

おすすめ

転載: www.cnblogs.com/ivyharding/p/11390735.html