論文リンク: https://arxiv.org/pdf/1703.04247.pdf
FM原理参照:
libFM紙と因数分解マシンを読ん https://www.cnblogs.com/yaoyaohust/p/10225055.html
GBDT、FM、FFMが導出され https://www.cnblogs.com/yaoyaohust/p/7865379.html
カテゴリタイプワンホット符号化特性、直接または離散ワンホット符号化後表さ連続特性。
核となるアイデアは、クロスターム使用を埋め込むようにFMモデルの重みの出力を取ることで、FMディープコンポーネントがこの埋め込みを共有しました。
(全体的な訓練があるため)、プロジェクトを備えていないので、訓練を事前にしていない、(FMために)しばらく下位と上位の相互作用項(FMとNNなど)。
评估:AUC、LogLoss(クロスエントロピー)
迅速なトレーニング
活性化関数:relu、よりシグモイドより一般的TANH;及び良好relu TANHより(縮小スパース性のため)
ドロップアウト:0.6〜0.9
層ごとのニューロン:200-400
最適な隠れ層:3
ネットワーク形状:定数(幅、「非常に満足」)