パートI - インタビューは、機械学習アルゴリズムのGBDT概要のデシジョンツリーを後押しグラデーションハイライト

調整はまた、分類のために使用することができる後GBDTツリーが回帰木(不分類ツリー)である、GBDTは、回帰予測に用います。エラー損失関数を二乗すると、結論およびすべての残存木の前に、回帰木残留電流を当てはめることによって得られ、残留有意式を学習し、各回帰木:残留=真の価値を - 予測値。

https://zhuanlan.zhihu.com/p/30654833

機械学習アルゴリズムのGBDT概要のインタビューハイライト - パートI

分類と回帰木木の違い

GBDTアルゴリズム原理の洞察

おすすめ

転載: www.cnblogs.com/pengwang52/p/11707846.html