検索式ボットを説明するための最も身近で理解しやすいの歴史を通じて、

3ヶ月間のニャーニャーニャー、偶然と非表示、突然、詐欺死んだ犠牲者は(∇)恐れていません

7月最初のインタビューから小夜はそれが本当にスーパー火災で、基本的には学校の募集(表面に十分な顔十分のT_T)上で、今年の対話システム/チャットボット方向の深く認識し、9月上旬に招待を受け始めました。主力オールラウンドインテリジェント顧客サービス小米科技アリ多くの製品に浸透するDuerOS、ユニットのスマートホーム(およびテレマティクス?)、だけでなく、小零細テンセントとそごう王ツァイBaiduのために、メイン感情から計算ウィートグラスマイクロソフト、これらの兄を言及しないように風力発電業界におけるNLPの主戦場が激化としてユニコーン会社、小さな夜深く対話を座って、小さな夕方のラッシュヤードにこの記事を怖がらせました。

1.リテラシー

フォームからテキストと音声入力に対話の偉大な概念は、当然のことながら、本論文ではテキストのみを考慮します。チャット対話の目的から、対話の非タスク型/型のタスクベースの対話に分け。名前が示すように、タスクベースの対話は、タスクを解決するために対話があなたの目覚まし時計、送信テキストメッセージを作るのを助けるためにそのようなシリとして、行われ、当然のチャットや種類は、通常の対話チャットヒト-人間の友人です。この記事では、タスクベースの対話については説明しません、興味のある学生は突くことができ、ここでスイープリテラシーを、本論文では、対話の非ミッション型の対話の問題の多くのラウンドに焦点を当てています。

対話のモデル化を完了するために、現在の式、式や検索を取得し、融合を生成する分割。名前が示すように、検索クエリはと一致アプローチを検索することによって、候補応答の既存の多数からの応答として、最も適切なものを見つけることです。式は、モデル、推論するときの最初のモデルへの知識の対話を通じて、事前に訓練されていますエンコーダ部の会話履歴が直接返信の対応する部分を生成するために、そのモデルデコーダ/言語モデルを読み取り、プレイロットの組み合わせを生成する方法を取り出し、そのようなモデルは、モデルを生成することによって取得rerankerを行う、ためのモデルを生成することにより検索モデルの応答などにモデルの応答として生成器によって生成され書き換え。スペースの制約のため、我々はこの記事では、純粋な検索クエリ、他の後日の話を(そうでないかもしれない長いため╮(¯▽¯「」)╭)。

ルーチン・タイプのモデルを取得する2

対話の一般的なルーチン検索が最初のビルドに知識ベースで形成されたクエリ - 応答ペアの多数によって(例えばクレソンからの抽出物など、その他の場所を貼り付け)、および照会のように最後の戻り、古典的な情報検索方法によって(会話ダウンQQのリコールに関連するいくつかの候補の応答をマッチングするためのインデックス+ TFIDF / BM25)。このステップは、意味をあまりにもラフ考慮していないが、最適な応答を選択するために、スコアを取得するために直接使用されることに注意してくださいは明らかに単純すぎると、粗感じです。我々はまた、それらの検索された候補応答と履歴、テキスト対話の深さに一致するようにセマンティックモデルを検討する必要があるので、マッチング/リランキング、ので、より多くの適切な応答を選び出すました。

それでは、どのように深いそれがテキストと一致しますか?

非常に単純なアプローチは、直接、繰り返し認識/自然言語推理/ Q&テキスト検索のモデルを直接使用関連分野のものと一致することですが、それが唯一のボットになるように、明らかにこれは、対話の単一のラウンドをモデル化しています7秒メモリ金魚╮(╯▽╰)╭、そのため、対話のいくつかのラウンドをモデル化することは非常に必要です。

しかし、テキストマッチングモデルを見て便利です。今年COLINGこの点で論文[6]良い要約、モデルベースの表現との相互作用に基づくSOTAの試合は、比較の詳細な要約を与えたがあります。

貧しい学生の基礎を見ることができます。この記事で 2013 DSSM [9]から徐々に開始埋めるために始めました。この分野での研究と相まって限られたスペースには、比較的非常に良いです、と小さな夜はそれについて話して起動しません。だから言った、候補応答との対話の多くのラウンドは、それが何であるかを一致させるための正しい方法でしょうか?

3.紙の焼き鳥

すべてだけでなく、2年前の秋から、一度、ティーンエイジャーがあります。

╮(¯▽¯「」)╭短い、次の4つの中の対話の多くの検索クエリを複数回の同棲から小さな夕刊が串の中から選択して書き込むことはできません他にそれを忘れて、またはそれのまともなポイント、または(年代順に、古典から最先端まで)であって

  • 襄陽兄EMNLP2016 Baiduの自然言語処理部@pkpkマルチビューの [1]
  • MSRA ACL2017 @呉水俣ギャングスターSMN [2]
  • COLING2018はに引き渡さDUA [3]
  • ACL2018百度自然言語処理部は、兄を襄陽と女神はlilu DAMを [4]

恐れることはありません。しかし、少し夜の論文は、必ずしも容易で理解するだけでなく、(∇)少し孟を共有します

言及する必要があります:マルチビューモデル

あなたはそれが多くのラウンドにQRでの一致1回から延びることができる方法を考えてみて?最もシンプルなアイデアの一つは、このような╭(¯▽¯「」)╮長い1回のラウンドへの対話のいくつかのラウンドを終了するには、直接接続されたエンドです。

 

v2-8b821c65ef4f6be3c6ff26884984f232_b.jpg

各車輪の上、最初のセッションが接続されている(ここで「__の接続挿入SOS_さらに、クエリと応答ベクターが発現それぞれ最後の瞬間にRNNベースのネットワークとの隠された状態を取り、次にここで、メソッド_」トークン)多分によるベクタースコア(V1、V2)= V1 ^ T \ CDOT M \ CDOT V2によってマッチング値を得る方法(Mは、ネットワークパラメータである)、さらにP =シグモイド(S(V1、V2)+ B)マッチング確率(Pパラメータ)を得ました。もちろん、実際には、本質的に存在し、テキストベースのマッチングモデル表現は、より複雑な表現とマッチング機能とプロセスを完了することが完全に可能である(例えば、SSEモデル[8])。

スマート靴は確かに、これは対話のいくつかのラウンド(コンテキストが埋め込む)アプローチはあまりにも非常にニューラルネットワークのだろう著者が提案するので、テキストの能力を表し全体で表現されたネットワークに直接シーケンスを埋め込む長い単語になること、明確に考えることができますのみならず、この単語レベルマッチングではなく、より高いレベルで一致し、このレベルが発声レベルと呼ばれている(すなわち、言葉として見られる各テキスト(発話の対話))。

 

v2-923ed7bc2b25768ca2c0f873e4810e43_b.jpg

上図の緑 - >黄色 - 対話の多数回の履歴になるようにベクトルの>赤部分は、最初に各テキスト(発話)の対話を示している(14歳キムCNNを提案でその他クラシック)でしたシーケンスを埋め込む発言。次いで、層その後ゲーテッドRNN(GRU、LSTM等)ノイズろ過不要発話、およびを通じて隠された状態の最終的な時間を割いた後対話(コンテキスト)を埋め込みコンテキストの全ラウンドを得ます。

コンテキストの埋め込みを取得し、あなたは友人の候補応答と一致する確率対話を取得するために単語レベルのアプローチでは前と同じになります。最後に、発話レベルで得られた一致する単語レベルのマッチング確率の確率は、最終的な結果を得るためにまで追加。

結果は以下の通りであります

 

v2-801d25a3f8074d6c8e00920832120da2_b.jpg

あなたは、発話レベルの単語レベルの仕事よりも確かに明らかであるだけでなく、より顕著な効果を高めるための統合については見ることができます。このため、紙から紙のほとんどはまた、すべて別々に(発現または相互作用)が処理される発話でこれをフォローし、次に発話埋め込みシーケンスにゲートRNNを用いて濾過し、アイデアを埋め込むコンテキストを取得します。

2017年までに、研究は、マッチが(支出)調理(笛)にテキスト、空想もたらした注目のすべての種類が大幅にこの分野での対話のも、そのマーク検索式の演劇多くのラウンド、試合の効果を高めることがより明白になってきましたそれは(トラブル)が豊富な(MA)豊富になります。

大きな進化:SMNモデル

検索の分野では良いスタートを切るマルチビューモデルは、対話のいくつかのラウンドを照会する場合は、大きな一歩前進SMNの枠組みを吸いました。表面マルチビューモデルとSMNモデルからは程遠いのが、しかし、ジュニアパートナーに一致するお馴染みのテキストは、モデルマッチングの相互作用に基づいて約16年には、主流を交換し始めたことに留意すべきである[6]モデルベースの表現にマッチするので、マルチビュー内に埋め込まれたマッチングモデルは、表現に基づいているが、SMNモデルの17年の最先端マッチング法ベースの対話の使用です。さらに、一致するテキストを変更することに加えて、「派」外側は、SMN及び操作を行うとき、比較的明るいテキストの一致は、異なる粒径(粒度)の間のテキストに一致すると見なされ、追従動作は、紙の数となっていますポイントに従ってください。

テキストより身近な学生を一致させることAAAI2016で、このような紙を読んでください。

画像認識(参考文献[5])のようなテキストマッチング

 

v2-2acfef5b3adbd3e1ad728dd36613798b_b.jpg

図後、基本的な考え方は、画像ように、2つのテキスト単語レベルアライメントマトリックス/類似性マトリックス、マトリックスを計算従来の注目を使用し、その後、より高いを得るために、モデル画像の分類(例えば、CNN)を使用することです前記類似表現レベル、及び従って最終的に得られる全体的な類似性マッチング機能(例えば、フレーズレベル、セグメントレベル、など)。これはまた、いくつかのインタラクティブなテキストマッチングモデルの初期の一つです。

SMN本論文では、このアイデアを使用することです。されている各発話表現する生成単語レベルのベクトルは、第1配向行列の各次いで、アラインメント行列の応答の履歴を用いて各発話について計算された場合、候補応答が与えられると、上記分類を用いて、このような画像思想は、(発話埋め込み)として表さ発話の類似性ベクトルのテキスト特徴ベクトルの高レベルの特徴付けを生成します。

フロントシーケンスを埋め込むこの発言から、全体の会話を埋め込むコンテキストを与えるために、実際にマルチビューを使用するようにした後、得られたコンテキストで最後に埋め込み、ワードレベルベクトルのコンテキストの前に類似の応答を計算するために埋め込みます。

しかし、ここで著者アライメント行列の計算と埋め込みコンテキストを取得し、より複雑なアプローチで、時間を。フィギュア

 

V2-d8f9a179e44da30e5cd07ff02b2e46cd_b.jpg

のみならず、タイムアラインメント行列の計算に埋め込む原作者の単語とが、同時にモデルベースRNN隠された状態にコンテキスト情報を埋め込むテキスト(すなわち、符号語の符号化の後、句レベルは、ワード埋め込み」として見ることができます「)、二つの2チャンネルに投入整列するように、したがって2つのアライメントマトリックス、次に行列を生成する」、それによってさえも非常に浅い画像分類モデルだけでなく、ハイレベル比較器抽出を確実に、モデル画像分類」 、発話埋め込みの高品質を提供しています。

また、ここで著者は、(として示される最後の隠れ状態RNN使用の伝統的な練習から離れて、最終的なコンテキストの埋め込みを取得するSMN_ {最後})、また、著者さらなる実験暗黙状態トップ重み付けを介して、各時間ステップ及び(重量訓練可能に)方法(SMN_ {静的})と情報自体が(より複雑な統合と自己注目発話方法の使用を表すSMN_ {ダイナミック})、実験結果は、全体的に示しSMN_ {ダイナミック}、わずかにより良い方法を(しかし考慮オーバーヘッド導入された追加のコンピューティングおよびストレージを取ります一般的にそれだけの価値はありません)。興味のある学生は、ここではそれについて話して起動しない、オリジナルの紙を見ることができます。

 

v2-3b31473bc25f37475569d3a8c39ba03d_b.jpg

ビューの実験点から、前SMNに比べマルチビューは大幅説明した、改善されています。

  1. QRマッチに、相互作用モデルは、比較モデルに基づいて、ある大きな利点を示し、それは実験的性能およびQ&検索式NLIタスクと一致しています。
  2. マルチ粒度のテキスト表現を行う必要があります。

発話だけでなく、エンコーディングの深さ!DUAモデル

SMNは非常に思慮深い配慮されているように見えますが、あなたはそれについて考える場合、実際には、モデリングのSMNの道はまだ話の人々の習慣の現実との小さな隙間がありませんが。一つの側面は、マルチビューおよびSMNは、発話間の意味関係に注意を払っていない、唯一のソフトで簡単なエンコーディングゲーテッドRNNの層を通して濾過です。しかし、非常に頻繁にモデル化する発話との関係は、フィルタリングもモチベーションのDUAで非常に重要なメッセージであっても必要です。私たちは、実際には、仕上げに始めるには、次の対話など、少しチャットのテーマである知っています:

ケース1:

U1 - >通行人:あなたはそれを再生するために行く小さな夜、中秋節?

U2->小さな夜:もちろん、〜購入購入ああを購入することです

u3->通行人:あなたは登るBaiwangshanの事の前に行きたくないですか?うまくいかなかったのか?

u4->小さな夜:うん行きたい、そして、彼らは私を取ることはありませんガチョウを再生するために行く(︿。)

u5->通行人:あなたはああ下待って、私は宅配便を取るためにダウンしました

u6->小さな夜:ゴーゴー、私はホットアイテムを購入助ける方法!

u7->通行人:大丈夫、あなたは味に何をしたいですか?チキン味?

u8->小さな夜:この特別な鳴き声も味がポイント?

u9->通行人:はい、戻ってくる、または他の私は、右、来週あなたを取るでしょうか?

u10->小さな夜:Haoyahaoya、ニャーニャー

 

ここでは、検索クエリのチャットボットと見られ、小さな夜ならば、ステップ6への対話(U6)場合は、この時間の最後の発言は、された「あなたは、ああ下待って、私は宅配便を取るために下って行った。」という、U5であります それはU1-U4これらクライミング関連の発話を考慮するとなると、この時点候補応答の束に小さな夜の話はその後、明らかにそれはU5でリコールに簡単ですが、試合をすればどうやら、この時の会話の話題は、同等の劇的な変化が起こったあります非常に関連した返信。同様に、U8への対話は、実際には、この時間は本当に便利な歴史的な発話がU6-U7であれば、U10、便利な発話に対話が、彼はU1-U4であるとき。

また、対話も容易に、ノイズのようないくつかのストップワードと混合など

ケース2:

U1 - >呂レーニイ:小さな夜、明日程度についてはどうですか?

U2->小さな夜:

u3->通行人:ヘクタール

u4->小さな夜:ウッドは時間を持っている必要があります

ここではU2とU3は、単語「無効発話」の非活性化に似ているので、発話のこのタイプのために、最善の方法ではなく、彼らが試合に参加できるようにするよりも、無視することです。

問題の上記の2種類を解決する方法は?直接人々はそれを頻繁に無知な灰色に見えたことをモデルマップ上DUAを強制的に:

 

V2-cc9e143d16a8d580848a03e3e07b367d_b.jpg

示されているように、一見すると、この数字ビット混沌(実際には本当に非常に良いではない塗装は(作者)は、右の2333私の記事を見てはいけません)

ああああああ著者でも本当にモーメントQAQの作者が私の複雑な心境のコメント欄に表示されていることを私の記事を見てください!

論文はまた、nは、長い時間のために私無意味な力を作ったの最後にケースがここにある3.1 n個のセクションがない権利、そうでない場合は思わないが、特にセクション3.3に薄い空気のうち、ここでは、出てくるように無秩序(ラベルされた数式を使用します彼らは何を表す);それはベクトルであるので、どのようにこのベクトル行列を取得するには、右せずに3.2節で重合された場合にいくつかの詳細は、最終的には、このような3.1 Sとして(明確に説明しなかった)が、行列またはベクトルです?。

スーパー作者のおかげ @NowOrNever 忍耐の疑問、そして突然はっきりとより魅力的。以下:
第一に、N Nおよび3.1節3.3を参照するのに同一である著者は、任意の問題が、同じ時間を参照すると感じた場合、さらに交流を歓迎します。物事は3.2から3.1ででてくるため、同時に、我々は、3.1節ではあるSセクション3.2の各コンポーネント、S_1、S_2、...、S_tを指しS_K、定義されて非常に申し訳ありません 、S_R ご質問がある場合は、共有すること自由に感じなさい!

しかし、実際には、ここで考えられている非常に明確で、我々は発話の埋め込みを行うためにもここにいるので、紙ああ前に、発話がRNNを取る直接埋め込んだ後得る、との良好なエンコーディングを行うためのプロセスを埋め込むという言葉好きではない、と言うことですエンコーディングの深さ!

だから、どのようにそれをコードしているのですか?2例以上のを見て、見つけることができ、会話が(CASE1のU9はそう中空を形成U4、U5-U8である上、上記の文章など)の穴は非常に頻繁にあり、さらに多くのAホールをかもしれないので、ここで行います最も適切なエンコーディングの代わりにRNN以上CNNよりも自己の注意を使用して。ここで著者らは、各発話埋め込みに符号化コンテキストに第一層(添加剤)自己注目を使用しました:

 

V2-e835c04ca8e2ddf924fb20a12a888699_b.jpg

ここでF_T、Tの時間を埋め込む発話が(前重合操作ベクトルを示した後に、である)であり、J F(J = 1,2、... N)それは文脈(すなわち、発話埋め込みすべての時間、Nの合計)です。このエンコードにより、発話の突然のすべての瞬間のすべてが時間を越え入れて、Nグループ一緒の友人そのパートナーを空にすることができます。

しかし、ガチョウ明らかに自己注目が著者は、それが別の層ゲーテッドRNNを取っエンコードする前に、ここに埋め込む発話でエンコードした後、ステッチ埋め込む発言再び、配列情報の発話を失っています。

 

V2-ca246032686e1d3aac5736e7c71bfaae_b.jpg

ゲーテッドRNN(GRU、LSTM等)に応じて、コード配列の態様をさらにできる、符号化を向上させつつも、望ましくない情報だけ外フィルタに、フィルタとして機能する他の入力ゲート。ルックは、これはモチベーションの時に行われ、この最後の発話埋め込みがきれいで、合理的により言うことができます。全体的なモデルの他の部分は、基本的には、SMNとは違いありません。

 

V2-c7d57f37a266ae983104e42eafdba189_b.jpg

実験結果から、DUAは、性能をさらに大幅にSMNよりも改善されていません。

最先端の:DAMモデル

これは、木製の広告演奏何╮(¯▽¯「」)╭がありますが、あまりにも忙しい兄を襄陽も、良い紙での対話の珍しい複数のラウンドです。ここで著者は、発話埋め込むシーケンスをモデル化する前に考えを放棄したが、対話のいくつかのラウンドをモデル化するための新しいフレームワークに統合クリーンでエレガントな操作NLPの多くの分野の最前線に、だけではないモデルが仕事ですが、また実験の部をモデル化します機能と各成分の有効性は、探査とフィージビリティスタディの完全であった、それは他に対話のマルチビュー及びSMNラウンドので秒である古典的なモデルに言及しなければなりません。

また、棒グラフの上に直接、美しいモデルの明確なビューがすごい容易ではない体験

 

v2-488bc1499d0eac964e0ff4abe3b6f6a3_b.jpg

PS:私はlilu女神の絵を推測するように、この絵の乙女心。

SMNは、2つのサイズのもののテキスト表現を行うことである輝点の前で言うことを覚えていますか?2つの十分なもの:だから自然に問題があるのでしょうか?より多くのグレードに設定する必要はありませんか?必要な場合は、このよりセマンティックレベルの細かさを表現する方法を学ぶには、次に言うの?

まず、もちろん、答えはイエス、17年SSEのテキストマッチングモデルと特別な火エルモが[10]、より意味単位高いレベルを学ぶことができ、テキストの深い表現を示していた今年ですが、私たちは、SSEとエルモとしてこれを知っています推論アプローチを大幅に大きく産業におけるそれらの適用を制限する多層スタックRNNのコストモデルを増大させます。テキストでの多層積層CNNは簡単な作業、ネットワークの洗練されたデザインを転送し、自然なアプローチは、それのテキストを取得するには、マルチレベル表現変圧器[11]エンコーダを使用することですので、いくつかのトリックの助けを必要としない(変圧ことを見ていません紙の記事は)どのようにNLP変圧ことを知っていない、それを埋めるために急いで。

したがって、として、第1堰エンコーダ変圧器を有する全てのマルチ粒度及び各応答発話表現(図中すなわち表現部分)のテキストを取得するために、それぞれ、各粒子の計算後の各発話 - 応答ペアを表します(図中、すなわち整合部)2つのアライメントマトリックス。

両方のアライメント行列がどのように、待って?アライメント行列を計算する従来の方法と同様に、新しい遊び、それに加えて?

ここで著者は、より深い(隠された)整合層(暗い)を提案し、操作は難しくありませんが、(セクション5.2の著者はの話すことは非常に困難であったが)なぜ仕事を徹底的に理解することは、まだ非常に困難です。要するに、最初の計算整列マトリクス状に簡単に触れ、伝統的な注意を取ります。

2つのワードのシーケンスとテキスト単語埋め込むシーケンスを埋め込むテキストの単語よりも何の伝統的な方法 - ワード比較は、ここでの比較は、添加剤および乗法方法方法に分けられ、貧しい学生の基礎はこのレビューの下に見ることができます。

注:単語-単語比較を添加し、乗法に分割され、添加剤は、(線形変換することができてもMLPを介して第1を追加する前)の合計を埋め込む2つのワードの比較になるだろうし、仮想ベクトルDOの活性化が続きます。内積(それが存在するという意味で、実際には、これは仮想ベクトルであるが、同じ次元のベクトルトレーニングすることができ、私の理解では、比較の各次元の追加や活性化の結果は、スケーリングされた、すべての後に、別の次元の分散が異なるものになるかもしれないということです)、内結果は、アライメントの友人の度の製品です。乗法が理解しやすくなり、直接乗算(正確には内積)を埋め込み、または訓練マトリックス(すなわち挟む2つの単語であるV1 ^ T * M * V2フォーム)を、エクステントの内積の結果は、それが整列されています。次元が高い場合でも、ソフトマックス飽和帯を(変圧器をご参照ください)を入力しないように正規化する最善の方法の結果を取り、覚えています。

 

V2-c69ee009dde2fe0b12000d6e445f61f5_b.jpg

上記式中、本明細書で使用される著者は乗法方法であり、Lは、本明細書中、Lレベルの粒度を指すu_i、発話、i番目の意味u_iがあるn_{ui}応答を有する、単語がn_r単語を。なお、ここでは各ワードは、それによって得ることが、Tをカウントする生成物の粒子サイズは、各ワードのKトーク応答である、セマンティック発話粒状の各々のレベルごとに、あるn_{ui}*n_r配向マトリックスのを。

二つの単語が近いセマンティックや構文上のことならば、従来の注目を集めるため、比較的大きなマッチング値(例えば、実行と実行、実行し、何を)得ることは容易です。しかし、より多くの無名の深い意味関係のいくつかの直接一致することは困難である(私たちは粒度レベルの埋め込む意味ネットワークユニットの前に主張することはできませんので、それは右の完璧学んだ)のために、著者はここで、より間接的な提案します注意とあいまいな方法は、以下の

 

V2-e2552b4690e63cf1dcd21d88a35fb678_b.jpg

ここでAttentiveModule 3つのパラメータは、クエリ、キーと値の注目だった、ここでそれを繰り返す、変圧器のない検討する学生に精通していません。まず、数式8及び図9に示すように、テキストの重み付け表現反対語によって、応答内の各単語の最初の発話を参照ワード埋め込む手順を示すシーケンスの埋込みワードの新たな発言を取得し、新たな応答は、従来重要で表され、一つの従来注目した後、再び第2の位置合わせ位置合わせ行列として行列を算出します。

ワードは、アラインメント行列の計算を表すように、明らかにこのように言葉で応答発話と単語(依存情報)との間の依存性も追加されるので、より深度モデリング(複合)層(ヘテロ)意味関係。しかし、著者らは論文で述べた5.2動作し、両方の注目ウェイ一致するテキストは、実際には相補的であり、かつ説明するために、ケースを与える、しかし、限られたスキル小さな夜、ビットを理解しようとしているか理解していなかった
▽¯(╮¯ 「」)╭私は〜の話に小さな夜の小さなパートナーまたは投稿されたコメントのセクションを読みたいです

例えば、Aが深い発話が(2(L + 1)次元のマッチング情報に含まれる各ワードの各ビットが一致した後、Lは、アライメントマトリックスの元の単語埋め込み、2層トランスエンコーダ1の数であります数)、ここで著者は、再び発言は、この美しい3Dのピンクの大きな立方体を形成するために一緒に積層されます

 

v2-37de27dc0906402087a7c982b4d58c5d_b.jpg

三次元のこの大きな立方体は、すべての発話の文脈で対話を表すので、各ワード(ビット)の応答のすべてのワード(ビット)発話。

この特徴から、二つの大きな3D立方体の畳み込みニューラルネットワークを介して引き出すこと後、特徴マッチング層は、単層パーセプトロンにより得られた候補応答マッチング確率の最終端に得られます。

、結果を見てみましょうと言ったこと〜

 

v2-086069d3011df8c8f8f4298c7b745247_b.jpg

結果は、特に、(現在の最先端の)非常に美しい見ることができR_ {10} @ 1、より意味のある指標(10件の候補からリコールTOP1)であること。DAMとをコードする配列を埋め込むDUA深い発話のが好きではありません(3Dの直接の使用は、ここでのポンピング特性をCONV)、有意DUAよりも良い結果は、それがバンバン友人のネットワーク設計と言うことができます。

また、ここで著者らはまた、各コンポーネントのパフォーマンスを取り除いた後の状況を示します:

 

v2-14f04acac8e3fe1597d7b464ffdc1783_b.jpg

たとえば、DAMと最後から二番目のラインの比較は論文で提案したこの「間接的」注意メカニズムは本当に魔法の一部をキャプチャすることができたことを示す、注意メカニズムの深さの複雑さを取り除いた後、ネットワークのパフォーマンスが大幅な下落を示している、見ることができますモード。

概要

最後に、小さな夜は非常に4つのモデルのハイライトをまとめ主観:

  • マルチビューは、単位複数回の対話モデルとしてモデル化されたセマンティック発話を提案しています。
  • 代わりマッチングモデル表現、テキストおよびマルチ粒状の相互作用を表すマッチングモデルをSMNに基づきます。
  • 符号のDUA発話埋め込み深さは、発話間の依存関係をモデル化することです。
  • DAMテキストの一方、マルチサイズ表記と深い関心の方法を提案したが、一方で提案単語レベルの情報の統合と発話レベルに、発話埋め込むシーケンスをモデル化する前に考えを放棄しました一緒に、(これは、より大きな箱のビデオのようなものです、実際には単一のフレーム画像として発話)を、3D映像のマルチチャネルを構築して、3D画像分類器によりマッチした新しいアイデアを完了します。

 

リファレンス

[1]マルチビュー対応ヒューマンコンピュータ会話の選択、EMNLP2016
[2]検索ベースChatbots、ACL2017におけるマルチターン応答の選択のための逐次マッチングネットワーク- A新しいアーキテクチャ
[3]ディープ発話集約とモデリングマルチターン会話、COLING2018
[4]マルチターンディープ注意マッチングネットワーク、2018ACLでChatbotsのための応答の選択を
[5]画像認識、AAAI2016としてテキストマッチング
言い換え識別、セマンティックテキストの類似性、自然言語推論、と質問応答のための[6]ニューラルネットワークモデル、COLING2018
自然言語推論、ACL2017のための[7]の強化LSTM
NLPのためのベクトル空間表現を評価する上でマルチドメイン推論、第2回ワークショップの議事録[8]ショートカット積層型文エンコーダ。2017
[9]クリックスルーデータ、CIKM2013を使用してWeb検索のための学習ディープ構造セマンティックモデル
[10]ディープは文脈語表現を、NAACL2018
[11]注意されたすべてのあなたの必要性、NIPS2017

公開された33元の記事 ウォンの賞賛0 ビュー3287

おすすめ

転載: blog.csdn.net/xixiaoyaoww/article/details/104553457