エンコーダ・デコーダは、NLPモデリングフレームワークの分野です。これは、広く機械翻訳、音声認識や他のタスクに使用されています。
1エンコーダ・デコーダとは何ですか?
エンコーダ・デコーダモデルは、主にNLPの概念の分野です。これは、特定のビット値の特定のアルゴリズムではなく、クラスのアルゴリズムを一括。エンコーダ・デコーダは、異なるタスクに対処するために、このフレームワーク内の異なるアルゴリズムを使用することができる共通フレームワークとみなします。
エンコーダ・デコーダ、このフレームワークの機械学習の核となるアイデアの良い解釈:将现实问题转化为数学问题,通过求解数学问题,从而解决现实问题。
エンコーダはまたエンコーダと称します。その役割は、「数学の問題への本当の問題」です。
デコーダはまた、デコーダとして、彼の役割は知られている「数学の問題を解決するために、実世界のソリューションに翻訳さ。」
二つのリンクは、以下のように表さイチジクに接続されています。
エンコーダ・デコーダについては、2つの注意点があります。
-
A。どのような入力と出力の長さの中間にある「ベクトルC「(また、その欠陥が詳細に説明されている)固定長であります
-
B。タスクに応じて、(そのLSTM GRUをRNNであってもよいが、通常であるか、または変異体)の異なるエンコーダおよびデコーダを選択することができ
限り、フレームワークは、上記に沿ったものであるように、集合的にエンコーダ・デコーダ・モデルと呼ばれます。そういえばエンコーダ・デコーダモデルは、多くの場合、名詞と呼ばれる - Seq2Seq。
2 Seq2Seqは何ですか?
Seq2Seqは(配列への配列の略である)、文字通りのように、入力のシーケンスは、別のシーケンスを出力します。この構造は、最も重要な場所は、入力シーケンスで、出力シーケンス長が可変です。例えば、図:
図のように:6つの文字入力、3つの出力英単語。異なる長さの入力と出力。
関係「Seq2Seq」と「エンコーダ・デコーダ」で
Seq2Seq(目的重視)「は入力シーケンス、出力シーケンス、」目的を満たすために、特定の方法に固有ではない、まとめSeq2Seqモデルと呼ぶことができます。
特定の方法は、実質的にSeq2Seqエンコーダ・デコーダモデル(強調法)カテゴリを落下使用しました。
その後、要約すると:
- Seq2Seq 属于 Encoder-Decoder 的大范畴
- Seq2Seq 属于 Encoder-Decoder 的大范畴
3 Encoder-Decoder 有哪些应用?
- 「文本 – 文本」 是最典型的应用,其输入序列和输出序列的长度可能会有较大的差异。
- 语音识别(音频 – 文本)
4 Encoder-Decoder 的缺陷
上文提到:Encoder(编码器)和 Decoder(解码器)之间只有一个「向量 c」来传递信息,且 c 的长度固定。
为了便于理解,我们类比为「压缩-解压」的过程:
将一张 800X800 像素的图片压缩成 100KB,看上去还比较清晰。再将一张 3000X3000 像素的图片也压缩到 100KB,看上去就模糊了。
5 Attention 解决信息丢失问题
Attention 机制就是为了解决「信息过长,信息丢失」的问题。
Attention 模型的特点是 Eecoder 不再将整个输入序列编码为固定长度的「中间向量 C」 ,而是编码成一个向量的序列。引入了 Attention 的 Encoder-Decoder 模型如下图:
这样,在产生每一个输出的时候,都能够做到充分利用输入序列携带的信息。而且这种方法在翻译任务中取得了非常不错的成果。