KT-NET - 知識とテキスト融合NET
KB単位: WrodNet + NELL。KBのdistrubuted表現( KBの埋め込み)。
WordNetの:例えば(生物、動物、の上位語)としての語彙関係を記録
NELL:エンティティに関する店舗の信念;比如(コカ・コーラ、アトランタ、に本社を置きます)
データセット:レコード、SQuAD1.1
そして、他の違い(の余分な知識モデル使用などKN-Readerの差を)
まず、検索し、KBの埋め込みを行うことを学ぶ学習のembeddinsのKBの概念、統合 MRCシステムには、(すなわち構造化キロとコンテキストが一体化されています)。このような関連のKBは、MRCシステムのためのこれ以上便利な、世界的に使用されています。
KBモデルは、関連するKB、その後、関連するKBエンコードMRCとローカルに関連するKBのあるシステムに統合を取得することである前に。
評価指標: EM、F1、F1 EM +スコア
モデルと本稿の知識の使用に関連する論文は、一見の価値があります。
貢献
1.事前に訓練を受けたのLM + KN、潜在的な将来の研究の方向、 KB単位キロから高度でのLMの強化。
MRCのKT-NETの2デザイン
BERTのキロバイトの効果を使用します
レコード(2018)から:WordNetのとKNからNELLの導入後、CSTの精度を向上させます。
実ワードエンティティのsynset、概念
KT-NETモデル
モデル説明
①最初の埋め込みの2つのGeの知識ベースを学びます。
②関連する可能KBの埋め込みを取得します。
③encodes、隠された層の選択された状態とBERTの埋め込みは、一緒に融合します。
④用、コンテキスト、知識・意識の予測。
使用エンコードkgで、への埋め込み知識グラフベクトルKBの概念図を学習する技術を。
P、Q与えられ、その後、各概念c∈C(W)は、Cが学習ベクトル埋め込みCであるすべてのトークンW(w∈P∪Q)に対する関連KBコンセプトC(W)の一連を取得しますこのように事前に訓練さKBの埋め込み、その後、+ 4つの主要な構成要素の内部を得ます。
その後、繰り返し:
- エンコーディングBERTレイヤ、計算と深い、コンテキストアウェア表現の通路を、
- 積分するレイヤー知識、コンテキストアウェアだけではなく、知識を意識しました。キロバイトのメモリから最も関連性の高いkbの埋め込みを選択し、それらが表現をエンコードし、統合BERT入れる注意メカニズムの使用。
- レイヤ加工へのセルフ、 FUSE BERTとKB表現、さらに豊かな相互作用。
- 出力層は、知識を意識した予測を行います。
特定
(主題、関連オブジェクト)の2つのKBの使用、知識はトリプルとして記憶されます
サポート技術情報の埋め込み
被写体Sのベクトル埋め込み、関係R、及びオブジェクトo学習三重(S、R、O)を、与えられました。
次に、双線形モデル、F(S、R、O)= sTdiag(R)O。
このようなトリプルはKBで高い有効性にされている。そして、maginベースのランキング損失が埋め込ま学ぶために。2つのKBの各エンティティのベクトル表現を取得します。
検索
WordNetの、候補としてのsynset語のリターン。
NELLによってP、NEのQを識別する第1の文字列照合 NELLエンティティに接続された識別されたエンティティを、そして潜在的な候補の系列が得られるよう、関連NELL概念と関連する概念を収集します。
図:通過/トークンの質問は、3キロバイトは、最も関連性の概念を説明する〜(に注意して選択)
4成分
実験
前処理:使用BasicTokenizer BERT、そしてNLTKと同義語を見つけるには、またFullTokenizerとに分割ワードにBERTに建て
SJ、すべての文章の単語(NV ADJ。前売)、および各単語のSIを考えてみましょう、隠された層のための最後の単語を取得し、その後、計算言葉SI QとP コサイン類似度を。
微調整BERTにMRCタスクの後、質問語が類似した表現に学びます。しかし、将来への知識の統合は、異なるq個の単語が類似の記事のために別の単語を示し、これらはたKBS年間でエンコードとの関係の良好な反射を類似度。
KT-NETは、より良好な質問通路マッチングを獲得し、より正確な表現を学ぶことができます。
言及した技術
技術を埋め込むナレッジグラフ(Yangら、2015):エンコード知識、KB概念学習されたベクトル表現に使用されます。
要素ごとのmultiplcation。
行方向のソフトマックス。
双線形モデル(2015ヤン)バイリニア関数f(S、R、O)、及び埋め込みを学ぶためのマージンベースのランキング損失によって測定妥当性。
外部の知識データセットの必要性
RECORD:抽出MRCデータセット
ARC、MCScript、OpenBookQA、CommonsenseQA:複数選択のMRCデータセット
知識ベースから構造化知識:一連の論文(論文参照)
パート言及した紙
(ビシャンYangとトム・ミッチェル2017)機械読み取りを改善するためのlstmsで知識ベースを活用します。
生成的なマルチホップ質問応答タスクのための(2018)常識;
【看过】(2018)知識豊富なリーダー:外部常識の知識を持つ強化穴埋めスタイルの読解;
(2018、常識的推論)人間と機械の常識的な読解力との間のギャップを埋めます