中国のNLP最強の事前研修モデル会いERNIE公式隠れ家[動画]

「最近ちょうどERNIEで彼の論文を書きます」

「それはかなり強力な感じ。」

「なぜそれがああ、これは名前がそれを意味するものであるERNIEと呼ばれているのですか?」

「私は私の宿題会いを助けたいです」

読む燃える前述の、あなたは非常に好奇心、「会い」にする必要があり、最後には「ERNIEは」Geshaありますか?

NLPとして知られている人工知能(自然言語処理は、NLPと呼ばれる)「王冠の宝石を。」NLPは、企業やコアのための分析とテキストマイニングツールを提供するために、開発者は、すべてのタイプのために、広く電気事業、文化、娯楽、金融、物流、その他の産業、企業の数で使用されています。

そして会い(ERNIE)、NLPの分野で最強の中国の事前トレーニングモデルとして記述することができます。

9月5日には、および、オンライン最強の中国NLP事前研修モデルERNIE、会いERNIEの強力な機能の解釈の開発者とのライブを経て近づいBaiduのシニアR&Dエンジニアの竜の先生は、NLPと同じモデルと一緒に暮らしますBERT直接PKは、開発者を許可する繰り返しERNIEが自分の仕事や生活に使用することを希望を嘆いています。

彼は、放送のバックについて話しているどのようなクラスのを見てみましょう、重要ではありません逃しました -

会い(ERINE)とは何ですか?

会い(ERNIE)は完全にキャプチャするなど、カスタムプレミッションの訓練の3つのレベルの語彙の増分導入(字句)、文法(構文)、セマンティクス(意味)をサポートして継続的な学習意味理解の枠組みのBaiduの自己開発であります電位情報、字句、構文、意味、その他のトレーニングコーパス。

これらのタスクは、新しいタスクの導入、フレームワークは、タスクを学びながら、以前に学んでいたことができた知識を忘れていない時はいつでもマルチタスク学習を通じてトレーニングモデルを更新しています。これは、フレームが続く、モデルの結果を改善し続けるさまざまな事前訓練ミッションによって構築することができることを意味します。ERNIEしたがって、意味論のより良い理解を持っています。

ERNIEは2.0 理解のための継続的な学習の意味論的枠組み

ERNIE それを使いやすいですか?

事実を知って、本当に使いやすいです。

空白で塗りつぶしの観点から直接充填ショーERNIEとBERT性能の形でライブセッション、ロング教師。

例えば、トピックについて:中国の歴史は唯一の合法的な女性天皇の[ですか?] [?] [?]、以下は、2つのアルゴリズムのライブパフォーマンスです。

ERNIE結果は、BERT「皇后ウー」で、結果は「歌Taidi。」ERNIE出力することができ、それは本当に「皇后ウー」との間の相関関係を学ぶことができるという「皇后呉」「女性天皇を。」

「歌」「あまりにも」、「皇帝女性天皇「」と、しかし一緒に、それは完全な言葉ではありませんが、ない」皇帝「BERT出力が関連付けられている」すべての単語、が、「歌Taidi」ケアの形成。

ここでも、陳氏の妻は[でしたか?] [?] [?]

その答えとERNIEは、彼らが唯一のウィキペディアにも、ゴシップを知っているのか分からないことを私たちに証明しました。

上記試験によるDEMOは、我々はまた、質問を頼みます:

 ERNIE と何の最大の違いBERTこと?

完全に単語と単語、そのマスク全体との関係では、エンティティの認識という名前の単語、フレーズを、学ぶことができERNIE1.0。BERTは、この能力を持っていません。継続的な建設補助作業を通してERNIE2.0は、より多くの強力なマルチ任務遂行能力、ERNIEは学ぶことができますしましょう。

1つまたは2つのタスクBERTの考えとこの事前訓練は完全に異なっています。学生は、質問の一種類だけは確かではありません質問練習してきた場合と同様に、多くの疑問が真の学習ペンシルバニアなるように、包括的なトレーニングを持っている必要があり、我々は特別な休憩を持っている必要があり、実行する必要があります。

増加の多様性のトレーニングデータでは、継続的な学習を通してERNIEが良く学ぶことができるようになります。

ERNIEはモデルとして、また、最良の結果を達成するために、深い学習の枠組みの深さと協力する必要があります。77%のその高速化は、神が背後ERNIEを支援することを言うことができるように、パドル(PaddlePaddle)を飛行する深い学習のためのBaiduのオープンソースのフレームワークは、ERNIEモデルのための非常に良いカスタム最適化されています。

パドルPaddlePaddle、79億のトークントレーニングデータを使用する複数のマシンに分散訓練利点を飛ぶ(XLNet 1/4についてのデータ)と64 V100(約1/8のXLNetハードウェア考え力)でERNIEはERNIE 2.0だけでなく、事前学習モデルを訓練し英語16タスクの最適な効果を達成するだけでなく、自分自身のNLPモデルをカスタマイズする開発者のためのソリューションを提供します。

現在、Baiduのオープンソースコードや英語の事前研修モデルのERNIE 2.0微調整。

iQIYIで同時ライブ会いERNIEの基本は、IT大きなコーヒーは嗶哩嗶哩がベタ5つのプラットフォームが同時に生中継、目の歯、と述べ、最近の3Wの開発者に注目を集め、議論を受けています。

ライン上にあったライブビデオの再生には、〜学びを継続することを歓迎します

原則、利点と例ERNIEレビューでは、ビデオの再生をスタンプしてください。

http://play.itdks.com/watch/8591895

11月には、ラインの下ERNIEトレーニングコースも、上海、成都、他の場所に着陸して、歓迎の注意「BaiduのNLP」いいえパブリックは、最新の登録情報を懸念します -

 

焦点を当てて描きます!

完全なコンテンツやチュートリアルを見るERNIEモデルを使用、下のリンクをクリックした推薦をクリックしてくださいスター以降の閲覧を容易にするため、プロファイルに追加。

GitHubのhttps://github.com/PaddlePaddle/ERNIE

反復バージョン、最新の開発は、持続的な関心を歓迎し、GitHubの最初の時間に掲載されます!

ERNIEはまた、あなたが公式の技術交流に参加するために招待QQグループ:760 439 550を、グループ内の通信技術の問題にすることができ、皆のためのタイムリーで質問に答える学生のERNIE発展があるでしょう。

おすすめ

転載: www.cnblogs.com/ernie/p/11793707.html