エンコーダ・デコーダとSeq2SeqのAIアルゴリズム

エンコーダ・デコーダは、NLPモデリングフレームワークの分野です。これは、広く機械翻訳、音声認識や他のタスクに使用されています。

1エンコーダ・デコーダとは何ですか?

エンコーダ・デコーダモデルは、主にNLPの概念の分野です。これは、特定のビット値の特定のアルゴリズムではなく、クラスのアルゴリズムを一括。エンコーダ・デコーダは、異なるタスクに対処するために、このフレームワーク内の異なるアルゴリズムを使用することができる共通フレームワークとみなします。

エンコーダ・デコーダ、このフレームワークの機械学習の核となるアイデアの良い解釈:将现实问题转化为数学问题,通过求解数学问题,从而解决现实问题。

エンコーダはまたエンコーダと称します。その役割は、「数学の問題への本当の問題」です。

デコーダはまた、デコーダとして、彼の役割は知られている「数学の問題を解決するために、実世界のソリューションに翻訳さ。」

二つのリンクは、以下のように表さイチジクに接続されています。

エンコーダ・デコーダについては、2つの注意点があります。

  • A。どのような入力と出力の長さの中間にある「ベクトルC「(また、その欠陥が詳細に説明されている)固定長であります

  • B。タスクに応じて、(そのLSTM GRUをRNNであってもよいが、通常であるか、または変異体)の異なるエンコーダおよびデコーダを選択することができ

限り、フレームワークは、上記に沿ったものであるように、集合的にエンコーダ・デコーダ・モデルと呼ばれます。そういえばエンコーダ・デコーダモデルは、多くの場合、名詞と呼ばれる - Seq2Seq。

2 Seq2Seqは何ですか?

Seq2Seqは(配列への配列の略である)、文字通りのように、入力のシーケンスは、別のシーケンスを出力します。この構造は、最も重要な場所は、入力シーケンスで、出力シーケンス長が可変です。例えば、図:

図のように:6つの文字入力、3つの出力英単語。異なる長さの入力と出力。

関係「Seq2Seq」と「エンコーダ・デコーダ」で

Seq2Seq(目的重視)「は入力シーケンス、出力シーケンス、」目的を満たすために、特定の方法に固有ではない、まとめSeq2Seqモデルと呼ぶことができます。

特定の方法は、実質的にSeq2Seqエンコーダ・デコーダモデル(強調法)カテゴリを落下使用しました。

その後、要約すると:

  • Seq2Seq 属于 Encoder-Decoder 的大范畴
  • Seq2Seq 属于 Encoder-Decoder 的大范畴

3 Encoder-Decoder 有哪些应用?

  • 「文本 – 文本」 是最典型的应用,其输入序列和输出序列的长度可能会有较大的差异。

  • 语音识别(音频 – 文本)

4 Encoder-Decoder 的缺陷

上文提到:Encoder(编码器)和 Decoder(解码器)之间只有一个「向量 c」来传递信息,且 c 的长度固定。

为了便于理解,我们类比为「压缩-解压」的过程:

将一张 800X800 像素的图片压缩成 100KB,看上去还比较清晰。再将一张 3000X3000 像素的图片也压缩到 100KB,看上去就模糊了。

5 Attention 解决信息丢失问题

Attention 机制就是为了解决「信息过长,信息丢失」的问题。

Attention 模型的特点是 Eecoder 不再将整个输入序列编码为固定长度的「中间向量 C」 ,而是编码成一个向量的序列。引入了 Attention 的 Encoder-Decoder 模型如下图:

这样,在产生每一个输出的时候,都能够做到充分利用输入序列携带的信息。而且这种方法在翻译任务中取得了非常不错的成果。

发布了486 篇原创文章 · 获赞 470 · 访问量 35万+

おすすめ

転載: blog.csdn.net/Mind_programmonkey/article/details/104335443