DeepFM:CTRの予測のための因数分解・マシンベースのニューラルネットワーク(2017)论文要点

論文リンク:  https://arxiv.org/pdf/1703.04247.pdf

 

FM原理参照:

libFM紙と因数分解マシンを読ん   https://www.cnblogs.com/yaoyaohust/p/10225055.html

GBDT、FM、FFMが導出され   https://www.cnblogs.com/yaoyaohust/p/7865379.html

 

カテゴリタイプワンホット符号化特性、直接または離散ワンホット符号化後表さ連続特性。

核となるアイデアは、クロスターム使用を埋め込むようにFMモデルの重みの出力を取ることで、FMディープコンポーネントがこの埋め込みを共有しました。

(全体的な訓練があるため)、プロジェクトを備えていないので、訓練を事前にしていない、(FMために)しばらく下位と上位の相互作用項(FMとNNなど)。

 

评估:AUC、LogLoss(クロスエントロピー)

迅速なトレーニング

活性化関数:relu、よりシグモイドより一般的TANH;及び良好relu TANHより(縮小スパース性のため)

ドロップアウト:0.6〜0.9

層ごとのニューロン:200-400

最適な隠れ層:3

ネットワーク形状:定数(幅、「非常に満足」)

 

おすすめ

転載: www.cnblogs.com/yaoyaohust/p/11272566.html