MRCのための豊富な知識を持つ【论文笔记】強化前の訓練を受けた言語表現

KT-NET - 知識とテキスト融合NET

 

KB単位: WrodNet + NELL。KBのdistrubuted表現( KBの埋め込み)。

WordNetの:例えば(生物、動物、の上位語)としての語彙関係を記録

NELL:エンティティに関する店舗の信念;比如(コカ・コーラ、アトランタ、に本社を置きます)

データセット:レコード、SQuAD1.1

そして、他の違い(の余分な知識モデル使用などKN-Readerの差を

まず、検索し、KBの埋め込みを行うことを学ぶ学習のembeddinsのKBの概念、統合 MRCシステムには、(すなわち構造化キロとコンテキストが一体化されています)。このような関連のKBは、MRCシステムのためのこれ以上便利な、世界的に使用されています。

KBモデルは、関連するKB、その後、関連するKBエンコードMRCとローカルに関連するKBのあるシステムに統合を取得することである前に。

評価指標: EM、F1、F1 EM +スコア

モデルと本稿の知識の使用に関連する論文は、一見の価値があります。

貢献

1.事前に訓練を受けたのLM + KN、潜在的な将来の研究の方向、 KB単位キロから高度でのLMの強化。

MRCのKT-NETの2デザイン

 

BERTのキロバイトの効果を使用します

レコード(2018)から:WordNetのとKNからNELLの導入後、CSTの精度を向上させます。

 

実ワードエンティティのsynset、概念

 

KT-NETモデル

 

モデル説明

①最初の埋め込みの2つのGeの知識ベースを学びます。

②関連する可能KBの埋め込みを取得します。

③encodes、隠された層の選択された状態とBERTの埋め込みは、一緒に融合します。

④用、コンテキスト、知識・意識の予測。

 

使用エンコードkgで、への埋め込み知識グラフベクトルKBの概念図を学習する技術を。

P、Q与えられ、その後、各概念c∈C(W)は、Cが学習ベクトル埋め込みCであるすべてのトークンW(w∈P∪Q)に対する関連KBコンセプトC(W)の一連を取得しますこのように事前に訓練さKBの埋め込み、その後、+ 4つの主要な構成要素の内部を得ます。

 

その後、繰り返し:

  1. エンコーディングBERTレイヤ、計算と深い、コンテキストアウェア表現の通路を、
  2. 積分するレイヤー知識コンテキストアウェアだけではなく、知識を意識しました。キロバイトのメモリから最も関連性の高いkbの埋め込みを選択し、それらが表現をエンコードし、統合BERT入れる注意メカニズムの使用。
  3. レイヤ加工へのセルフ FUSE BERTとKB表現、さらに豊かな相互作用。
  4. 出力層は知識を意識した予測を行います。

 

特定

(主題、関連オブジェクト)の2つのKBの使用、知識はトリプルとして記憶されます

サポート技術情報の埋め込み

被写体Sのベクトル埋め込み、関係R、及びオブジェクトo学習三重(S、R、O)を、与えられました。

次に、双線形モデル、F(S、R、O)= sTdiag(R)O。

このようなトリプルはKBで高い有効性にされている。そして、maginベースのランキング損失が埋め込ま学ぶために。2つのKBの各エンティティのベクトル表現を取得します。

検索

WordNetの、候補としてのsynset語のリターン。

NELLによってP、NEのQを識別する第1の文字列照合 NELLエンティティに接続された識別されたエンティティを、そして潜在的な候補の系列が得られるよう、関連NELL概念と関連する概念を収集します。

図:通過/トークンの質問は、3キロバイトは、最も関連性の概念を説明する〜(に注意して選択)

 

4成分

 

 

 

 

 

実験

前処理:使用BasicTokenizer BERT、そしてNLTKと同義語を見つけるには、またFullTokenizerとに分割ワードにBERTに建て

 

 

 

SJ、すべての文章の単語(NV ADJ。前売)、および各単語のSIを考えてみましょう、隠された層のための最後の単語を取得し、その後、計算言葉SI QとP コサイン類似度を

微調整BERTにMRCタスクの後、質問語が類似した表現に学びます。しかし、将来への知識の統合は、異なるq個の単語が類似の記事のために別の単語を示し、これらはたKBS年間でエンコードとの関係の良好な反射を類似度。

KT-NETは、より良好な質問通路マッチングを獲得し、より正確な表現を学ぶことができます。

 

言及した技術

技術を埋め込むナレッジグラフ(Yangら、2015):エンコード知識、KB概念学習されたベクトル表現に使用されます。

要素ごとのmultiplcation。

行方向のソフトマックス。

双線形モデル(2015ヤン)バイリニア関数f(S、R、O)、及び埋め込みを学ぶためのマージンベースのランキング損失によって測定妥当性。

 

外部の知識データセットの必要性

RECORD:抽出MRCデータセット

ARC、MCScript、OpenBookQA、CommonsenseQA:複数選択のMRCデータセット

知識ベースから構造化知識:一連の論文(論文参照)

 

パート言及した紙

(ビシャンYangとトム・ミッチェル2017)機械読み取りを改善するためのlstmsで知識ベースを活用します。

生成的なマルチホップ質問応答タスクのための(2018)常識;

【看过】(2018)知識豊富なリーダー:外部常識の知識を持つ強化穴埋めスタイルの読解;

(2018、常識的推論)人間と機械の常識的な読解力との間のギャップを埋めます

公開された63元の記事 ウォン称賛13 ビュー40000 +

おすすめ

転載: blog.csdn.net/changreal/article/details/103691154