リコール検索試合で推奨されるモデルの概要(3):マッチング機能の学習に基づく深学習法

学習の深さに基づいてPART0マッチ機能学習

最大match関数学習の特性に基づく方法を学習比較表現は、直接ユーザーを知ると、そのアイテムを埋め込むことはなく、種々の既存の入力を介して、フレームによってニューラルネットワーク、直接ユーザとアイテムのスコアを一致適合されていません

図match関数学習4.1基づく奥行きマッチングモデルフレームワーク

手短に言えば、第一の方法は、ユーザを埋め込み、中間生成物としての項目を学習することにより、エンド-2-エンドプロセスを学習表現ではなく、容易に一致スコアの両方を計算することができ、マッチング関数の第二の方法end2endは決勝戦のスコアを取得するために直接取り付けるための学習法です。この章では、match関数学習の一致に基づいて、深い学習方法に焦点を当てています。


協調フィルタリング法に基づくパート1

上述した従来のマッチングモデルに基づいており、協調フィルタリングモデルベースと不可分であるモデル学習を表し、それはまた、モデルベースマトリックス分解と呼ぶことができます。ベースのmatch関数の学習モデルも例外ではありません。

NCFフレームベースのアプローチ

ニューラルネットワーク学習法(NCF)の後に従来のネットワークに比べて博士彼Xiangnan、CFによって2017年に提案し、ユーザベクトル項目ベクトルを得た後、MLPネットワークが接続され、それは与えるために、最終的なフィッティングを出力端を-2-ベースモデルの最後。このフレームワークの利点は、柔軟十分である、二重カラムの設計項目とユーザの特徴はサイド情報のいずれかの側に添加することができる、MLPネットワークは、図4.2に示されている柔軟な設計とすることができます。

ニューラルネットワークに基づくフレームワーク図4.2協調フィルタリング

前記メインメソッドの比較章NCFフレームは、CF MLPは、ユーザにフィットするように導入された項目は、二つの間の直接的な関係は内積あるいはコサインによって計算されるのではなく、ネットワークのフィット性を向上させる、非直線的な関係です。しかし、MLPは、直接学習とMFから抽出されたユーザとアイテムのベクトルを捕獲する能力について本当に強いしません。問題の能力wsdm2018の記事を取り付けるにはMLPの組み合わせによって特徴付けられます

図4.3 DNNモデルは、実験データをフィット

論文では、データを合わせて1層MLPネットワークを使用して、一連の実験を行った。実験では、2次元データの最初の注文のために示し、また、合わせて100個のノードを必要とし、二つ以上のバンドならば、全体のMLPのパフォーマンスは非常になります違い。そのため、記事では、DNNのために、高次の情報をキャプチャする機能のみをキャプチャ低レベルの情報には、強力ではありませんについて説明します。

以下のモデルのトーク、モデル構造、または特性寸法は、様々な変更を加えています。


NMF模型(神経行列因子)

神経MF、名前が示すように、ニューラルネットワークMLP MFの能力を利用してマッチングスコアに合うようにしながら、MFは、相関ベクトルの内積とアイテムのユーザーを使用して学習しながら、両方の捕捉のための情報の他の高MLP部分。実際に、この紙とNCFの枠組みの中で同じの論文からのものです。モデルは、図4.4に示すように、二つの部分及びMLP GMFビューに分割することができます。

図骨格モデル4.4 NeuMF

(1)GMF(一般的な行列因子分解)部分

ユーザ入力項目は、ワンホット符号化によって、スパースベクトルされ、その後、ユーザの埋め込み層とベクトル項目ベクトルによりマッピングしました。このような相互作用を与えるために、一般的にベクトルドット積またはアダマール積(要素全体の積)によってベクター暗黙のユーザとアイテムを、得られたが、マルチNeuMF接続層、すなわちGMF層に関連して

(2)MLP部

入力部GMFは、スパースワンホット符号化し、次に層を埋め込むことにより、ユーザベクトルアイテムベクトルにマッピングされます。(個人的な感情を共有し、より完全に埋め込む訓練された埋め込み)ので、ベクター及びGMFのこのユーザとアイテムの部分は、同じではないことを指摘し、隠された寸法要件の二つの異なるGMF MLPネットワーク構造、MLP部分が高くなります

層を埋め込んだ後、従来のMLPの層は、このの何も、MLPの出力として最後の層の出力を言わないことです。


NNCF模型(隣接ベースNCF)

一種CIKM2017提案NCFネイバー法ベースの最大の違いは、入力された情報とアイテムのユーザに加えて、ユーザは、それぞれの隣接各情報項目の中に導入されることです。

図モデルのフレームワーク4.5 NNCF

入力は、図4.5は2つの部分、ワンホットYI徐ための中間体で構成され、元のアイテムと埋め込み層マッピング及びPUベクトル気を埋め込むことにより、ユーザが入力しMLPとしてアダマール積によって入力されます。入力層とNiのNU側はユーザとNiとNUは、情報は、図マイニングに2つ、USER- CF項目-CFなどの様々な手段を使用して抽出することができる方法を入力隣人の各々の項目情報です。

隣接不一致と各ユーザの隣人、可変長入力、固定長プーリング及び畳み込みを埋め込むことにより得られた抽出物の項目数に起因する情報、及びそれ自体を掲示し、モデルに入力され、その後、ベクトル連結ユーザー項目の


(外製品ベースNCF)模型ONCF

博士は彼Xiangnan 2018オリジナルフレームNCFモールドフレームに外産物ベースNCF NCFを提案し、図4.6に示すように、外積の概念を導入しました。

図モデルフレームワーク4.6 ONCF

層を埋め込んだ後、O-NCFモデル紹介相互作用マップが交差層を特徴とする、ユーザのベクトルu iとアイテム気PUベクター、外産物の両方の導入

Eは各要素ペアワイズ二次元マトリックスを与えるために前記マトリックスの寸法です。これにより、MLPの入力として、2次元マトリックスによって起動K2次元のベクトルになることができます。仮定するK = 64は、次いで、Eは、4096のベクトルであり、各層が半分に設けられた中間層のユニット数は、最初の層の寸法は、4096個の* 2048840万必要なネットワークパラメータは、パラメータを訓練する必要が約あります量は巨大です。

従って、紙は、図4.7に示されたパラメータを利用埋め込み層CNNローカル接続を共有する方法を低減するために隠された層の間のパラメータが提案されています。

図4.7 ConvNCFモデルフレームワーク

= 64隠された層の寸法Kを仮定し、層を隠された6つの層が存在し、それぞれの層32は、その後、機能後に元の各コンボリューションのコアのサイズをマップ、畳み込​​みカーネル(特徴マップ)= 2ステップのストライドを有する1 / 4(以下、それぞれの半分より長さと幅)。第一層に例えば畳み込み。

次に、ネットワークの第1の層はコンボリューション32は32 32は、最後の特徴マップの数を表す3次元ベクトル32、。ここでは、それがクロス思考の特徴を具現する方法は?EIは、Jは、Cは正面、二次のいずれかの特徴マップを表すとj番目の要素の交差のi番目のユニットです。第一の特徴マップ層は、抽出された局所領域の各細胞層は、情報に接続され、抽出された情報が第1の層の第三の層であり、それはネットワークの端部で元のレベルに特徴マップに抽出することができますグローバルな接続情報、ように、高次の特徴抽出を実現しています。

要約すると、オリジナルのouter-製品のアイデアを使用して、ほぼ千万のパラメータが学び、一つの手でCNNネットワークを使用する必要があります下位と上位を抽出すると同時に、一方で、ネットワーク層で最初のパラメータの量を減らすことができます特徴の組合せ。個人的にはもちろんのCNNの導入は、メモリを節約できることを感じるが、また増加したトレーニング時間と推論につながる、それは宇宙のアイデアのための時間です。特徴の組み合わせがより効率的にデータバインディングの配布を参照するには、元のフィットMLPの必要性よりもことができるかどうかでさらにCNN。


概要CFベースのアプローチ

フレームワークの基本的な原則に基づいて、NCF法は、協調フィルタリングに基づいて、協調フィルタリングは、本質的に、従って、MFベースのアプローチSE NCFフレームワークも基づいており、マトリックス分解のユーザとアイテムを行っています。マトリックス分解は、(クリック又は余弦ベクトルと直接距離ベクトルが近接してい計測)可能な限り近くにマッピングベクトル空間におけるユーザ及びアイテムを可能にするための様々な方法を介して、ベクトルのユーザとアイテムとして本質的です。

そしてまた、翻訳ベースのモデルとして知られている別の考え方、ベースの翻訳方式は、ベクトルのユーザーとのギャップを持つことができ、新たな空間にマッピングされたアイテムは、表現する関係ベクトルとのギャップは、ユーザーがベクトルの関係を追加してみましょうすることだと思いますベクトルのベクトル、および可能な限り項目ベクトル近いです。2つのアプローチの違いは、図4.8の画像で表すことができます。

図4.8行列分解モデルに基づいて、翻訳との差に基づいて、


パート2翻訳フレームベースのアプローチ

transRecモデル

一つは、次の項目の問題を解決するために推奨される方法が推奨され、「翻訳」に出会い2017 recsysを提案しました。基本的な考え方は、ユーザーとの対話上のベクトル項目と相まって、ユーザー自身のベクトルを、と言うことです、近いユーザーとの対話のベクトル項目にする必要があり、入力が(ユーザー、前の商品、次の項目)で、推奨される次の項目を予測します確率

図モデルのフレームワーク4.9 transRec

ユーザーベクトルは次のように表します:

ここ里とRJユーザーとの対話のアイテムiと次の相互作用、ユーザー自身のためのTU発現ベクター上の項目jを表します。実際の推薦システムでは、多くの場合、スパースなデータとユーザコールドスタート問題があるTUは二つのベクトルに分解ベクトルのユーザそう。

Tは、コールドスタートのユーザについては、ユーザUのバイアスTU自体を表し、全てのユーザの平均的挙動を示し、グローバルベクトルとみなすことができる場合、TUは、コールドスタートなどのグローバルユーザーT式で、0に設定することができます。

ホットアイテムのために起因する発生の非常に大きな数に、ベクトルとベクトルの利用者の最終的な人気アイテム大多数につながるプラスアイテムベクトルは非常に近いので、人気のあるアイテムの罰の記事は、アイテムiと、既知のユーザでは、最終的には、なかったでしょうマッチングスコアJ項目は以下のように表されます。

第1項はグローバル熱J beta_j記事を表し、iおよびjの距離がより近い距離を示している推奨、第2項は、ユーザプラス距離ベクトルと記事アイテムIのベクトルjのベクトルを表し、dは大きな可能性


LRML模型(潜在リレーショナルメトリック学習)

上述フロント、最大フレーム差分方式に基づいてCF比較は、ユーザベクトル+関係ベクトル変換フレーム近い項目ベクトルベースの方法として、関係ベクトルを見つけることです。LRML WWW2018モデルは、遠隔学習を測定するために、メモリネットワークを導入することにより、提案しました。これはすなわち層、記憶層および関係層を埋め込み、3層に分割することができます。

図モデルの枠組み4.10 LRML

(1) 埋め込み層

それぞれ、従来の二重塔底を埋め込み、そしてマトリックスは、ユーザ入力ベクトルpとによって埋め込み後ベクトルq物品を得るために、ユーザのアイテム、ワンホットユーザ入力とワンホットアイテムを埋め込むマトリックスを埋め込みます

(2) メモリ層

メモリ層は、先験的モジュールを導入することにより、記憶層としての著者の記事のコアモジュールです。このモジュールは、3つのステップで計算することができます。

A)記事およびユーザー融合を埋め込みます

埋め込み層は、pとqのアイテムベクトルとユーザニーズであり、次の層への合成ベクトル入力を横断した後、MLPの効果よりも良好アダマール積の使用と称する、よりシンプル

B)ユーザ - アイテムキーのアドレッシング

類似度を計算することによって、各メモリモジュールのネットワークベクトル一方のメモリへの最初のステップベクトルs、メモリから得られ、類似性は内積で表さ正規化することができます

メモリネットワークi番目のベクトルで入力項目(P、Q)の類似性 - AIは、現在のユーザの代表的な得られます。

C)最終的な発現を重み付け

以下に示すような関係得られたベクターは、第二工程で得られたメモリの異なるネットワークメモリを発現する重み付けベクトルであります

(3) 関係層

それは、ユーザベクトルpおよび図4.11に示した正方形で測定された損失に起因するベクトルq、物品関係ベクトル、と考えることができるベクトルメモリ層Rから得られます。

4.11 LRML関係図の層構造及び損失

問題の解決は、ユーザとアイテムのようにネットワークの最後の層において、ペアワイズ損失を使用して推奨物品、物品を、ソートされるので、負のサンプルは、p「及びq」をサンプリングすることによって得られた、次いでペアワイズヒンジ損失を使用して最適化されています


深マッチングその3 match関数学習の概要

モデルを学習match関数の深さは、また、ベースの協調フィルタリングモデルと機能ベースのモデルを分割しました。前者CF従来のモデル、非線形性の発現を増強するためにMLPモデルの背面へのアクセスを除いて、そのようなベクターのユーザ項目の目的と可能な限り近接して、この方法は、モデルNCFに基づいて、導入関係ベクトルを通ってきましたユーザーベクトルプラスアイテムベクトルに関係ベクトルの終了後に、この方法は、翻訳のモデルに基づいています。

このレビューは主にオリジナルのスライド、粗製の集中的の紙部分の読み取り部分に基づいて仕上げ、一緒に主に同じ考えの背後にある様々な方法を、します可能な限り文字列に推奨試合を行う方法についてのアイデアをフルテキストでは、それらの多くのことを学びました指導。以上のミスよりも、歓迎の批判が指摘しています。

公開された18元の記事 ウォンの賞賛588 ビュー103万+

おすすめ

転載: blog.csdn.net/hellozhxy/article/details/103960154