【論文読書ノート70】トークン-トークングリッドモデルに基づく情報抽出(全5件)

论文1: TPLinker: トークンペアリンクによるエンティティとリレーションの単一段階の共同抽出

年: 2020-10-26

論文リンク: https://aclanthology.org/2020.coling-main.138.pdf
https://drive.google.com/file/d/1UAIVkuUgs122k02Ijln-AtaX2mHz70N-/view
https://drive.google.com/ファイル/d/1iwFfXZDjwEz1kBK8z1To_YBWhfyswzYU/view

ペーパーコード: https://github.com/131250208/TPlinker-joint-extraction

関連する背景:

問題タスク: 非構造化テキストからエンティティと関係を抽出する
従来の方法: 従来のパイプライン アプローチでは、最初にエンティティの言及を抽出し、次に候補エンティティ ペア間の関係タイプを分類します。 従来の方法の問題
: エンティティと関係の間の関係を無視します。
最近の方法: エンティティとジョイント関係性をまとめて抽出するモデル、
最近の手法では解決できない問題:重複問題が解決できない 重複問題

の解決策:DecoderベースのモデルとDecompositionベースのモデルの問題
重複手法:露出バイアス、トレーニング、予測は同じではありません。
要約すると、共同抽出をトークンペアのリンク問題に変換する TPLinker が提案されています。

タグ付け

モデル


文内の単語がエンコーダーによってエンコードされた後、直接結合されてから、ハンドシェイク カーネル:


**デコード手順:**
EH から ET: エンティティの先頭からエンティティの末尾まで
SHからOHへ: 被写体の頭から被写体の頭へ
STからOTへ:主題の尾部からオブジェクトの尾部へ
例:
エンティティ カテゴリ:
("New"、"York")、("New"、"City")、および ("De"、"Blasio") は、EH から ET への場合は 1 としてマークされます。 、エンティティを表す: "New York"、"New York City"、および "De Blasio"; リレーション
カテゴリ:
("New", "De") は 1 としてマークされます。 "mayor" の件名は "NEW で始まります。 "、オブジェクトは "De" で始まります。
("City", "Blasio") は、ST から OT への関係 "mayor" で 1 としてマークされます。これは、"mayor" の主語が "City" で終わり、目的語が "Blasion" で終わることを示します。
エンティティ カテゴリと関係カテゴリを合計すると、トリプルを取得できます: (「ニューヨーク市」、市長、「デ ブラシオ」) デコード ステップ: 最初のステップ、
EH
-to-ET に従ってすべてのエンティティを抽出し、次を使用します。辞書 D を保存する;
第 2 ステップでは、関係ごとに、まず ST-to-OT シーケンスの内容を処理し、次に SH-to-OH の内容を処理します;第 3 ステップでは、すべての候補エンティティ ペアを繰り返して
、 Eの末尾の位置を決定します。
損失関数

実験結果

結果は依然として非常に良好であり、ここでの焦点は、問題を解決するためにエンティティと関係をトークン ペアに変換する新しいラベル付け方法を提案することです。ハンドシェイクカーネルの場合はペアで組み合わせる必要があり、テキストが比較的長い場合は効率が問題になります。したがって、現時点では、このアイデアはまだ非常に斬新であり、アプリケーションを最適化する必要があります。

论文2:PRGC: 潜在的な関係とグローバル対応に基づく共同関係トリプル抽出

年: 2021-06-17

関連背景: 提案されたモデルは、関係の抽出から始まる以前のエンドツーエンド モデルとは少し異なります。目的は、冗長な関係を削除することです。

基本的な考え方

単一エンティティ オーバーラップ (SEO) 単一エンティティ オーバーラップ
エンティティ ペア オーバーラップ (EPO) エンティティ ペア オーバーラップ: つまり、エンティティ ペア間には複数の関係があります サブジェクト
オブジェクト オーバーラップ (SOO) サブジェクト オブジェクト オーバーラップ: サブジェクトとオブジェクトの両方

モデル

関連性判定: (オレンジ色の点線) 潜在的関係予測
エンティティ抽出: (青色の点線) 関係固有のシーケンス タグ付け 主体
とオブジェクトのアライメント: (緑色の点線) グローバル対応

潜在的な関係の予測

++ 上記の Orage ボックスに対応します ++

*Avgpool: 平均的なプーリング操作を示します。P が計算するのは、すべての関係の分布です。*このステップでは、モデルをマルチラベルのバイナリ分類として扱います。確率が特定のしきい値 λ を超える場合、対応する関係にはラベル 1 が割り当てられ、それ以外の場合、対応する関係ラベルは 0 に設定されます。その後、すべてを予測するのではなく、関係固有のシーケンス ラベルのみを予測された関係に適用する必要があります。関係。

関係固有のシーケンスのタグ付け

こちらはBIOラベルを判定するキャラクターです。

グローバル対応

この部分は主に、被写体と被写体の間に関係があるかどうかを計算するために使用されます。

マトリックスのスコア。これは TPLinker によく似ています。ただし、このコード内のコードは平均値を見つけます。同じ問題:文の長さが長すぎると、最終的な主語と目的語の調整によって消費されるスペース リソースが非常に大きくなります。

損失関数 (3)

関係の損失関数、指定された関係に基づくシーケンス ラベルの予測、<sub,obj> 行列のグローバル行列の損失。

上記のモデルの概要: 一般的なモデルと比較して、文内の関係分類がここに追加されています。目的は、潜在的な関係をフィルターで除外し、フィルターされた関係の後のエンティティを見つけることです。ここでは、指定された関係に基づいて決定します。このエンティティがトリプレットの sub または obj であるかどうか、最終的な損失関数を見ると、計算量はまだ比較的大きいです。PRGC 予測プロセス: まず、潜在的な関係のサブセット (潜在的な関係) と、すべてのサブジェクトとオブジェクト間の対応するスコアを含むグローバル マトリックス (グローバル マトリックス)を予測し、次にシーケンス タグ付け (シーケンス タグ付け)を行い、潜在的な関係のサブジェクトとオブジェクトを抽出します。 finallylist すべてのエンティティ候補は、グローバル対応行列に対してフィルタリングされます。

実験結果

主な結果

モデルの各モジュールの寄与

论文3:単語間関係分類としての統一固有表現認識

[1] J. Li et al.、「単語-単語関係分類としての統合名前付きエンティティ認識」、arXiv、arXiv:2112.10070、2021 年 12 月。doi: 10.48550/arXiv.2112.10070。年:
2021-12-19

モチベーション:

W2NERスキーム:

主に、NER 統合を使用するための 2 つのラベル、Next-Neighboring-Word (NNW)、Tail-Head-Word- (THW-* ) が導入されています。

NNW: エンティティ内の 2 つの単語が隣接しているかどうか。

THW-*: エンティティの境界とタイプをマークします。

例: 図 1 (b) では、NNW は隣接することを意味し、これにより {脚の痛み、肩の痛み、脚の痛み、肩の痛み} が発生する可能性があります。

THW-S は、上記の候補のうち、エンティティの尾と頭の間の接続が {足が痛む、肩が痛む} 可能性があることを示します。これらはすべて S タイプのエンティティです。

モデル:

エンコーダ層

この論文では、BERT、Bi-LSTM という 2 つの方法について言及しています。

畳み込み層

畳み込み層は 3 つのモジュールで構成されます。

1.Conditional Layer Normalization; 単語ペアテーブルの生成に使用されます。

2. BERT スタイルのグリッド表現の構築、豊富な単語ペアのテーブル表現。

3. 多粒度拡張畳み込み。遠距離単語と遠距離単語の間の相関関係を捕捉するために使用されます。

条件付きレイヤーの正規化

BERT スタイルのグリッド表現の構築

V: 単語情報。

Ed: 各単語ペアの関係位置情報。

Et: 単語関係グリッドの上三角領域と下三角領域を区別する領域情報を示します。

多粒度の拡張畳み込み

拡張畳み込み (拡張畳み込み)中国語名は拡張畳み込みまたは拡張畳み込みとも呼ばれ、英語名はAtrous Convolutionとも呼ばれます

ホール コンボリューションは、もともと画像セグメンテーションの問題を解決するために提案されました。一般的な画像セグメンテーション アルゴリズムは、通常、プーリング層と畳み込み層を使用して、受容野 (Receptive Filed) を増加させ、特徴マップのサイズ (解像度) を削減します。画像のサイズを復元するためのアップサンプリング。特徴マップを縮小および拡大するプロセスでは精度が低下します。そのため、特徴マップのサイズを変更せずに受容野を拡大する操作が必要であり、それによってダウンサンプリングとアップサンプリングを置き換えます。サンプリング操作、この要求の下でホールコンボリューションが誕生しました。

ここでは複数の 2 次元拡張畳み込み (DConv) が適用され、l は 1、2、3 をとります。

共予測層

ビアフィフィン予測器

MLP 予測器

この Q は畳み込みの結果です。

これは残差の形式を反映しています。

損失関数

デコード中

予測では、単語と単語の関係を有向単語グラフとみなします。デコードでは、NNW を使用してワード グラフ内の特定のワード パスを見つけます。THW は、有用なエンティティの識別とタイプの追加を支援します。

例 (a) では、2 つのパス「A→B」と「D→E」がフラット エンティティに対応し、THW 関係がそれらの境界とタイプを表します。

例 (b) では、THW 関係がないと、パスは 1 つしか見つからないため、「BC」が欠落しています。対照的に、THW 関係を利用すると、「BC」が「ABC」にネストされていることが簡単に判断できます。これは、THW 関係の必要性を示しています。

例 © は、不連続なエンティティを識別する方法を示しています。「A→B→C」と「A→B→D」の2つのパスが見つかり、NNWの関係が不連続な「AB」と「D」を結びつけるのに役立ちます。

(d) の場合、有向ワード グラフを通じて、NNW と THW を使用して 2 つのエンティティ「ACD」と「BCE」を取得できます。

各モジュールの役割。

実験

ノーマルNER

オーバーラップ NER

不連続なNER

モデルは 3 つの典型的な NER を解決します。その効果はさまざまなモデルより悪くないので、試してみることを検討できます。

ENR カテゴリ図を典型的なジャンルで補足します。

コード関連

入力データ形式 - 英語の場合、文とナー情報が含まれます。

中国語の場合: 文とナー情報だけでなく、単語の分割情報も含まれます。

データの前処理とデータセット -- process_bert 関数と RelationDataset クラス:

また、ピースという概念もあり、これは単語よりも小さな分割を意味し、これは英語の単語でより一般的です。中国語の場合、単一の文字で区切ると、そのようなピースの区切りはありません。

文:[「高」、「永」、「:」、「男」、「、」、「中」、「国」、「国」、「慈」、「、」、「なし」、「京」、ワイ」、「ジュ」、「ステイ」、「右」、「,」]

bert_input:[ 101 7770 1235 8038 4511 8024 704 1744 1744 5093 8024 3187 1862 1912 2233 4522 3326 8024 102]

グリッドラベル:

このデータを解釈するには、次の変数のいずれかを調べてください。

1 は場所の後継者、つまり論文ではNNW を表し、2 は名前を表し、3 は国を表します。

dist_inputs: 距離行列

プロセッサによって返される結果は次のとおりです。bert_inputs, grid_labels, grid_mask2d, pieces2word, dist_inputs, sent_length, entity_text

これら 7 つのフィールドがデータセット (RelationDataset) でも使用されていることは間違いありません。

class RelationDataset(Dataset):
    def __init__(self, bert_inputs, grid_labels, grid_mask2d, pieces2word, dist_inputs, sent_length, entity_text):
        self.bert_inputs = bert_inputs
        self.grid_labels = grid_labels
        self.grid_mask2d = grid_mask2d
        self.pieces2word = pieces2word
        self.dist_inputs = dist_inputs
        self.sent_length = sent_length
        self.entity_text = entity_text

    def __getitem__(self, item):
        return torch.LongTensor(self.bert_inputs[item]), \
               torch.LongTensor(self.grid_labels[item]), \
               torch.LongTensor(self.grid_mask2d[item]), \
               torch.LongTensor(self.pieces2word[item]), \
               torch.LongTensor(self.dist_inputs[item]), \
               self.sent_length[item], \
               self.entity_text[item]

    def __len__(self):
        return len(self.bert_inputs)

モデル:

最初のコンテンツ、bert エンコーダー:

self.bert = AutoModel.from_pretrained(config.bert_name, cache_dir="./cache/", output_hidden_states=True)

以下は、ベルトの後ろの 4 つのレイヤーを選択するかどうかを選択するスイッチです。

if self.use_bert_last_4_layers:

bert_embs = torch.stack(bert_embs[2][-4:], dim=-1).mean(-1)

else:

bert_embs = bert_embs[0]

2 番目のコンテンツ: 単語表現へのピースの最大プール:

# 处理pieces, 采用最大池化把pieces变成词表达
length = pieces2word.size(1)
min_value = torch.min(bert_embs).item()
_bert_embs = bert_embs.unsqueeze(1).expand(-1, length, -1, -1)
_bert_embs = torch.masked_fill(_bert_embs, pieces2word.eq(0).unsqueeze(-1), min_value)
word_reps, _ = torch.max(_bert_embs, dim=2)
word_reps = self.dropout(word_reps)

3番目のコンテンツ: 単語エンコード-bi_LSTM

packed_embs = pack_padded_sequence(word_reps, sent_length.cpu(), batch_first=True, enforce_sorted=False)
packed_outs, (hidden, _) = self.encoder(packed_embs)
word_reps, _ = pad_packed_sequence(packed_outs, batch_first=True, total_length=sent_length.max())

**付属:pack_padded_sequence とpad_packed_sequence。**LSTM では、パッドがモデルのエフェクトに影響を与えるため、パッドを削除してからモデルに渡す必要があります。Pack_padded_sequence はパッドの内容を削除し、入力は次のようになります。

(B×T×* )形式。LSTM が処理された後、pad_packed_sequence を実行し、パッドを元に戻します。

第4のコンテンツ - コンテンツ情報(コンテンツ情報、位置情報、エリア情報):

cln是一个layerNorm层
self.cln = LayerNorm(config.lstm_hid_size, config.lstm_hid_size, conditional=True)
cln编码后:
cln = self.cln(word_reps.unsqueeze(2), word_reps)


  # 位置信息
dis_emb = self.dis_embs(dist_inputs)

# 矩阵的区域信息
tril_mask = torch.tril(grid_mask2d.clone().long())
reg_inputs = tril_mask + grid_mask2d.clone().long()
reg_emb = self.reg_embs(reg_inputs)

== 添付ファイル: torch.tril: == pytorch の tril 関数は、主に行列の主対角の下にある下三角行列を返すために使用され、他の要素はすべて 0 00 です。入力が多次元テンソルの場合、戻り値は同じ次元のテンソルと最後の 2 次元の下三角行列です。

5 番目のポイントのコンテンツ畳み込み

conv_inputs = torch.cat([dis_emb, reg_emb, cln], dim=-1)
conv_inputs = torch.masked_fill(conv_inputs, grid_mask2d.eq(0).unsqueeze(-1), 0.0)
conv_outputs = self.convLayer(conv_inputs)
conv_outputs = torch.masked_fill(conv_outputs, grid_mask2d.eq(0).unsqueeze(-1), 0.0)

第 6 点予測器 – 共予測器

class CoPredictor(nn.Module):
    def __init__(self, cls_num, hid_size, biaffine_size, channels, ffnn_hid_size, dropout=0):
        super().__init__()
        self.mlp1 = MLP(n_in=hid_size, n_out=biaffine_size, dropout=dropout)
        self.mlp2 = MLP(n_in=hid_size, n_out=biaffine_size, dropout=dropout)
        self.biaffine = Biaffine(n_in=biaffine_size, n_out=cls_num, bias_x=True, bias_y=True)
        self.mlp_rel = MLP(channels, ffnn_hid_size, dropout=dropout)
        self.linear = nn.Linear(ffnn_hid_size, cls_num)
        self.dropout = nn.Dropout(dropout)

    def forward(self, x, y, z):
        h = self.dropout(self.mlp1(x))
        t = self.dropout(self.mlp2(y))
        o1 = self.biaffine(h, t)

        z = self.dropout(self.mlp_rel(z))
        o2 = self.linear(z)
        return o1 + o2

付属品:マスク操作マスクされた_塗りつぶしマスクの値 1 に対応するテンソルの要素を値で埋めます。マスクの形状は、塗りつぶされるテンソルの形状と一致する必要があります。

ビアフィンをもう一度見てください。

class Biaffine(nn.Module):
    def __init__(self, n_in, n_out=1, bias_x=True, bias_y=True):
        super(Biaffine, self).__init__()

        self.n_in = n_in
        self.n_out = n_out
        self.bias_x = bias_x
        self.bias_y = bias_y
        weight = torch.zeros((n_out, n_in + int(bias_x), n_in + int(bias_y)))
        nn.init.xavier_normal_(weight)
        self.weight = nn.Parameter(weight, requires_grad=True)

    def forward(self, x, y):
        if self.bias_x:
            x = torch.cat((x, torch.ones_like(x[..., :1])), -1)
        if self.bias_y:
            y = torch.cat((y, torch.ones_like(y[..., :1])), -1)
        # [batch_size, n_out, seq_len, seq_len]
        s = torch.einsum('bxi,oij,byj->boxy', x, self.weight, y)
        # remove dim 1 if n_out == 1
        s = s.permute(0, 2, 3, 1)

        return s

ここで最も興味深いのは、einsum (アインシュタインの総和) を理解することであり、そこには 3 つの変数の法則が含まれています。論文中のビアフィンの式についても説明されています。

アインシュタイン和は、和の公式の簡潔かつ効率的な表記法であり、その原理は、変数の添字が繰り返し現れる場合に、煩雑な和記号を省略できることです。

このうち、i と j はフリーのインジケーター、k はダミーのインジケーターです。

ダムインジケーター: 式の特定の項目で、特定のインジケーターが 2 回出現する場合、そのインジケーターをたどって値の範囲内で合計する必要があることを意味します。繰り返されるインジケーターをダミー インジケーターまたは略してダミー ラベルと呼びます。(合計インジケーターではありません)フリーインジケーターと呼ばれます)

無料のインデックス: 式のある項目において、あるインデックスが 1 回だけ出現する場合、値の範囲内で任意のインデックスの値を順番にとると必ず関係式が成立するものであり、このインデックスを自由インデックスと呼びます。

einsum の本質はネストされたループです。

その後、複数の GPU を使用するように修正されましたが、lstm 出力後にパディングの長さを修正する必要があります。それ以外の場合、concat は接続できないというエラーを報告します。

论文4:OneRel: 1つのモジュールによる1ステップでの結合エンティティと関係の抽出

年: 2022-03-17

タイトルと著者を参照してください

OneRel という名前のモデルを使用して、エンティティとリレーションシップの共同抽出タスクを解決します。

著者: 北京工業大学

概要を参照

トリプル依存情報を無視すると、カスケード エラーと情報の冗長性が発生します。OneRel では、エンティティとリレーションシップの結合抽出を、スコアリング ベースの分類器と関係固有のホーン タグ付け戦略で構成される、きめの細かいトリプル分類タスクとして扱うことが提案されています。エフェクトSOTA。

結論を見てください (要約に対応し、さらに多くの見通しがあります)。

1. 結合抽出タスクを詳細なトリプル分類問題に変換します。

2. スコア分類子と Rel-Spec Horns ラベリング戦略に基づく単一ステップ結合単一モデルが提案されます。

見通し (未満):

  1. スコアリング関数はモデルの効率に影響します。
  2. 実際に情報抽出タスクを徹底的に調査します。

実験結果を見る(主にチャートを見る)

性能は悪くない。

方法を見てください

2 つの部分: ラベリング システム (Rel-Spec Horns Tagging) とモデル (スコアリングベースの分類子)

一般的に、革新のポイントは 2 つあります。ラベリング システムとモデルです。

Rel-Spec Horns のタグ付け戦略とデコード アルゴリズム

タグ付け

「BIE」:始まり、内側、終わり

「HB」:エンティティの開始トークン(先頭エンティティの開始トークン)

"TE" : 末尾エンティティのエンドトークン (末尾エンティティのエンドトークン)

タグ付け戦略

(1) 「HB-TB」: 特定の関係にあるエンティティのペアの先頭エンティティ トークンと末尾エンティティ トークン。たとえば、トリプルの場合 (「ニューヨーク市」、「ニューヨーク市」に位置)

State")、("New"、所在地、"New") は "HB-TB" としてマークされます。

(2) 「HB-TE」: 上記と同様、(「新規」、「州」に位置) は「HB-TE」としてマークされます。

(3) 「HE-TE」: 上記と同様、(「都市」、「所在地」、「州」) は「HE-TE」とマークされます。

(4) 「-」:上記 3 つの場合に加え、すべて「-」とマークされます。

3 つの角のみにマークが付けられているため、「Rel-Spec Horns Tagging」と呼ばれます。

例:

タグ付けシステムの利点:

  1. 9種類のラベルを三角形のラベルに変えます。
  2. ネガティブサンプルは簡単に作成できます。
  3. デコードは簡単かつ効果的です。
  4. *EntityPairOverlap*(EPO)、*SingleEntityOverlap*(SEO)、およびHeadTailOverlap (HTO1) の問題は簡単に解決できます。

デコード

スコアベースの分類子

エンコーディング: {e 1, e 2 , …, eL} = BERT ({x 1 , x 2 , …, xL} )

最終的なスコアリング関数:

損失関数:

複数モジュールマルチステップと単一モジュールシングルステップの違いの補足説明

この記事は少し長く感じます。新しいラベル付けスキームが提案されています。トリプルを抽出するこの方法にはエンティティ タイプがありませんか? 実際、私は今でもエンティティ タイプに注目しています。エンティティ タイプは関係から推測できるでしょうか?

论文5:OneEE: 高速オーバーラップおよびネストされたイベント抽出のための 1 段階フレームワーク

[1] H. Cao et al.、「OneEE: 高速オーバーラップおよびネストされたイベント抽出のための 1 段階フレームワーク」。arXiv、2022 年 9 月 6 日。アクセス日: 2022 年 10 月 12 日。[オンライン]。利用可能: http://arxiv.org/abs/2209.02693年
:2022-09-26

問題を解く:

この論文では、単語間の関係認識タスクを使用して EE タスクを解決する OneEE を提案しています。トリガーワードまたは関連パラメータが特定され、一緒に抽出されます。このモデルは、適応型エンベン フュージョン モジュールと距離認識予測子で構成されます。

ラベルスキーム

[外部リンク画像の転送に失敗しました。ソース サイトには盗難防止リンク メカニズムがある可能性があります。画像を保存して直接アップロードすることをお勧めします (img-WbRZMhcD-1666014120039) (https://www.jianguoyun.com/c/) tblv2/Xu0c-GgQsUSNnT28QzkliG7VkhHvlD6PpcEdy_tzPqE4M5ukEWYl770 yYFYshtsm5NcqC-lF /U-lATKLRCvNj4EgWWIREmw/l)]

これは 2 種類の関係ラベルとして設計されており、1 つはエンティティを表すために使用される spnas タグ: S-*、もう 1 つは中心間の関係を表すために使用されるロール タグ: R-* です。単語とイベントのパラメータ。

S-* はトリガーと引数の関係を表し、R-* はパラメータの役割分類を表します。

「ST」: トリガーの開始境界と終了境界の間の関係をマークするために使用されます。

「SA」: 引数の開始境界と終了境界の間の関係をマークするために使用されます。

「RS」: 「subject」パラメータとトリガーの関係を示します。

「RO」、「RT」、「RP」は、それぞれ「オブジェクト」、「ターゲット」、「割合」パラメータのトリガー間の関係を表します。

たとえば、(a) では、イベント: 投資、「s-」で表されるトリガー エンティティ: 取得、引数エンティティには「中信証券」と「広州証券」が含まれます、「R- *」で表される関係は、 RS 側のエッジと RO 側では、gmw が使用されます

モデル:

モデルは 3 つの部分で構成されます。

エンコーダ層:BERT

アダプティブ イベント フュージョン レイヤー

ヒューズ層: イベント情報 + コンテキスト情報

内容には、フォーカス モジュール、2 つのゲート統合モジュール (グローバル イベント情報とターゲット イベント情報を融合するために使用) が含まれます。

注意メカニズム

ゲートフュージョン機構

p、q は入力ベクトル、g は活性化関数による完全な接続の結果です。

注意メカニズムとゲート融合メカニズムの 2 つの公式を適用する

E はイベントの埋め込みを表し、ランダム初期化によって初期化されます。

ここでの目的は、単語を使用してイベントを伴う情報を表現することです。これは、イベントを意識した単語表現と呼ばれます。

結合予測層

2 つの単語間のスパンと役割の関係を共同で予測します。

各単語のペアについて、関係 (スパン関係と役割関係) の尤度を測定するスコアを計算します。

距離を意識したスコア

損失関数

ここで閾値δは、関係がδより大きい場合に引用され、そうでない場合にはδより小さい。

モデルのトレーニング プロセスがサンプリングされ、リレーショナル サンプリング数 K は次のようになります。

実験効果

モデルの各部分の役割:

要約する: 実際、イベントの抽出はエンティティと関係の抽出の別の角度ですが、イベントの背景があり、より詳細に表示されます。単語の分割と NER の関係に似ています。単語を分割できるタスクである限り、単語を分割しますが、NER には依然として型があります。エンティティと関係のモデルは、エンティティが抽出され関連付けられている限り、イベントの役割が中心となる単語であるイベントに含まれ、他のエンティティがそれを囲む必要があります。その他のエンティティは属性と呼ばれます。中心となる単語 中心となる単語 イベントが何であるか、またイベントの種類も決まります。NLP のタスクは、どの角度から見るかによって、密接に関連しています。タスクに応じて、エンドエンドの形式にすることも、段階的に分解することもできます。

ハッピープリンスが作った

おすすめ

転載: blog.csdn.net/ld326/article/details/127377715