26 seq2seqモデル

以前seq2seqモデルを述べ、私たちはここから始まります。

彼はエンコーダ・デコーダ・アーキテクチャを使用Seq2seqモデルが、今回は、紙にそれをマップするために指している必要があります!

過去には、実際には言語モデルは、単語RNN年に入れられます、それはすぐにRNN対応する単語を吐き出すます。

英語の単語にように、それは次のレベルをもたらすために、その後、これらの予測のうちの対応するフランス語の言葉を吐き出すます。

非常に直感的やってますが、一方で彼は、文の翻訳を完了しませんでした。

言語の文法は、言葉の鏡像異性体の11ペアにすることは困難である、異なっている大きな柱  26 seq2seqモデル翻訳を。

このseq2seqモデルは、固定長のベクトルに変換される翻訳対象文を担当する別のアプローチは、エンコーダとしてLSTMのセットを取り、その後、別のLSTMこのベクターは、対象文章に変換、この背後にあるLSTMは、デコーダの役割です。

各部分は、2つを受け入れるか、または異なる長さの文章を生成し、良好なスコアを得ることができるように、そのようなモデルの枠組みの下で、デコーダを有する2つの部分エンコーダに分割されます。

実際には、2 LSTMは確かにピックアップしますので、何も詳細について話をしないように。

しかし、このモデルは、異なる長さの文章に文章の長さの異なる問題を解決しません。

おすすめ

転載: www.cnblogs.com/sanxiandoupi/p/11711020.html