以前seq2seqモデルを述べ、私たちはここから始まります。
彼はエンコーダ・デコーダ・アーキテクチャを使用Seq2seqモデルが、今回は、紙にそれをマップするために指している必要があります!
過去には、実際には言語モデルは、単語RNN年に入れられます、それはすぐにRNN対応する単語を吐き出すます。
英語の単語にように、それは次のレベルをもたらすために、その後、これらの予測のうちの対応するフランス語の言葉を吐き出すます。
非常に直感的やってますが、一方で彼は、文の翻訳を完了しませんでした。
言語の文法は、言葉の鏡像異性体の11ペアにすることは困難である、異なっている大きな柱 26 seq2seqモデル翻訳を。
このseq2seqモデルは、固定長のベクトルに変換される翻訳対象文を担当する別のアプローチは、エンコーダとしてLSTMのセットを取り、その後、別のLSTMこのベクターは、対象文章に変換、この背後にあるLSTMは、デコーダの役割です。
各部分は、2つを受け入れるか、または異なる長さの文章を生成し、良好なスコアを得ることができるように、そのようなモデルの枠組みの下で、デコーダを有する2つの部分エンコーダに分割されます。
実際には、2 LSTMは確かにピックアップしますので、何も詳細について話をしないように。
しかし、このモデルは、異なる長さの文章に文章の長さの異なる問題を解決しません。