私は、自然言語処理のBERT NERの中国を愛し

BERT関連する論文、記事やコードリソースの概要

BERTはあまりにも最近の火災で、紙、コードや記事の解釈を含めて、ホットスポット、整理関連リソースを、こします。

1、Googleの公式:

1)  BERT:言語理解のためのディープ双方向変圧器の事前研修

それはすべてGoogleに頼って、この論文の10月に開始し、瞬時にメディア界からを含む全体のAI円をオフに設定します。  https://arxiv.org/abs/1810.04805

2)のGithub:  https://github.com/google-research/bert

11月には、Googleが再び興奮のグループを引き起こし、コードおよび事前研修モデルを導入しました。

3)GoogleのAIブログ:  オープンソーシングBERT:最先端の自然言語処理のための事前研修

2、サードパーティ製の読書:
博士張Junlinの1)の解釈は、ほとんど朱書き知っている:Wordの埋め込みからバートモデルに-自然言語処理の事前訓練を受けた技術開発の歴史を

私たちは、AINLPマイクロチャネルパブリック番号、歓迎の注目記事と博士張Junlin PPTシェアを転載します:

2)  ほとんど知っている:BERTモデルを評価する方法は?

3)  [NLP] GoogleのBERTは、詳細

4)  [NLP自然言語処理] GoogleのBERTモデルの深さ分析

5)  BERTを説明:NLPのアート言語モデルの状態を

6)  BERTの紹介

7)  BERTモデルと微調整:ペーパーを読みます

8)  NLPはBERTモデル詳細な解釈をブレークスルー

9)  ドライ| BERT微調整究極のハンズオンチュートリアル:AIチャレンジャー2018読解タスクにおける特異点スマートBERTの戦闘チュートリアル、トレーニングモデル79+。

ミゲルロメロカルボによって「BERTを解剖」10)【BERT详解】
エンコーダ:解剖BERT第1
BERT細目:BERT第2理解
解剖BERT付録:デコーダ

11)NERを識別するためのCRF-DO-NERのBERT + BiLSTM

12)AIは、法律を有効にする|インテリジェント司法の分野におけるモデルのNLP最強GoogleのBERT実践

3、サードパーティのコード:

1)pytorch-pretrained-BERT:  https://github.com/huggingface/pytorch-pretrained-BERT
Googleの正式推奨PyTorch BERBバージョンが実装は、Googleがロードすることができるモデルはpretrained:GoogleのAIのBERTののPyTorch版モデルをスクリプトにしますGoogleの事前訓練されたモデルを読み込みます

2)BERT-pytorch:  https://github.com/codertimo/BERT-pytorch
別Pytorchバージョンが実装されています。GoogleのAI 2018 BERTのpytorchの実装を

3)BERT-tensorflow:  https://github.com/guotong1988/BERT-tensorflow
Tensorflow版本:BERT:言語理解のためのディープ双方向変圧器の事前研修

4)BERT-チェイナ:  https://github.com/soskek/bert-chainer
Chanier版本:「:言語理解のためのディープ双方向変圧器の事前研修BERT」のチェイナ実装

5)BERT-ASで修理:  https://github.com/hanxiao/bert-as-service
可変長文をマッピング:固定長ベクトルにマッピング事前訓練BERTコーディングモデルと異なる長さの文pretrained使用して固定長のベクトルに BERTモデル
文の類似性コンピューティングサービスを行うかどうか、これに基づいてさらに少し、これは非常に興味深いですが、?しようとする一切の学生がありませんか?

6)bert_language_understanding:  https://github.com/brightmart/bert_language_understanding
BERT实战:言語理解のためのディープ双方向変圧器の事前研修:前の列車TextCNN

7)sentiment_analysis_fine_grain:  https://github.com/brightmart/sentiment_analysis_fine_grain
BERT戦闘、マルチラベルテキスト分類は、AIチャレンジャー2018きめの細かい感情分析タスクの試み:BERTを使用したマルチラベル分類; AI挑戦者からのファイングレイン評判分析

8)BERT-NER:  https://github.com/kyzhouhzau/BERT-NER
BERTの戦闘は、固有表現認識:使用するGoogle BERTがCoNLL-行うには 2003 NERを!

9)BERT-keras:  https://github.com/Separius/BERT-keras
Keras版:事前訓練量のBERTのKeras実装

10)tbert:  https://github.com/innodatalabs/tbert
BERT MLモデルのPyTorchポート

11)BERT-分類-チュートリアル:  https://github.com/Socialbird-AILab/BERT-Classification-Tutorial

12)BERT-BiLSMT-CRF-NER:  https://github.com/macanv/BERT-BiLSMT-CRF-NER
Tensorflow GoogleのBERTの微調整でBiLSTM-CRFモデルを使用したNERタスクのソリューション

13)  BERT-中国分類Task-
BERT中国の分類練習

14)  BERT-中国-NER:  https://github.com/ProHiryu/bert-chinese-ner
事前に訓練された言語モデルBERTの使用は、中国のNERを行います

15)BERT-BiLSTM-CRF-NER
GoogleのBERTの微調整とBiLSTM-CRFモデルを使用したNERタスクのTensorflowソリューション

16)BERT-シーケンスタグ付け:  https://github.com/zhpmatrix/bert-sequence-tagging
ベースの中国のシーケンスは、BERTを表します

おすすめ

転載: www.cnblogs.com/jfdwd/p/11232715.html