3日目 - LSTM

(以下LSTMs呼ばれる)長い短期メモリネットワーク、特別なネットワークRNN、配列の長さは、ネットワークは、長い依存性を解決するために設計されています。ネットワークはHochreiter&シュミット(1997)によって導入され、それらの多くは改善され、人気をされています。彼らの作品は今も広く使用されてまで、様々な問題を解決するために使用されてきました。
ここに画像を挿入説明
セルの状態、トレーニングデータの伝送のメインチャンネル。
単語を見てきた私たちは、例えば、言語モデルに基づく予測に戻りましょう。正しい代名詞を選択することができるように、この問題では、セルの現在の状態は、性別の対象を含むことができます。私たちは新しい対象を見るとき、私たちは古い主題を忘れたいです。
ここに画像を挿入説明
LSTMは、細胞の状態によって制御される3つのゲートは、これら三つのゲートは、ゲート、入力及び出力ゲートを忘れると呼ばれます。伝えるために一つ、次の1。

ForgetGate
LSTMは、最初のステップは、細胞の状態を破棄するためにどのような情報ニーズを決定することです。操作のこの部分は、ドアによって達成される扱う忘れシグモイドセルと呼びます。それは0-1のセルであるベクトルの値は、情報が予約またはどのように多くの廃棄された状態を示し、0-1と情報を介してビュー間のベクトルを出力します。0手段なし予約は、1が予約されています。以下に示すように、ドアを忘れてください。
ここに画像を挿入説明
InputGate

シグモイド関数を使用して情報を追加するかどうかを決定し、その場合、意思決定のドットデータを介して追加することができTANHデータによって機能を追加する準備ができて取得します。
ここに画像を挿入説明更新するために、ドアを入力し
ここに画像を挿入説明
、出力ゲートを
最終的に、我々はどのような出力の値を決定する必要があります。この出力は、私たちの細胞の状態に基づいて、だけでなく、フィルタのバージョンであることになります。まず第一に、我々はシグモイド出力アウトの細胞層の状態のどの部分を決定するために実行します。次に、我々は最終的に、我々はだろうだけ出力出力部を決定する乗算シグモイドとTANHゲートを介して細胞状態(間-1〜1の値を与えるために)して出力する処理されました。

彼は代名詞を見たので、例の言語モデルでは、あなたは動詞に関連する情報を出力することができます。それは動詞であれば例えば、出力代名詞は単数または負でもよいならば、そう、我々はまた、語形変化動詞を行う必要があります知っています。
ここに画像を挿入説明

オリジナルリンクします。https://www.aboutyun.com/forum.php MOD = viewthread& TID = 27020?
もっと参考:HTTPS://zhuanlan.zhihu.com/p/28054589
使用TensorFlowでRNNCell基本単位ます。https:/ /www.jianshu.com/p/56243a97322c
Tensorflowはノートを読んでAPIをrnn_cellます。https://blog.csdn.net/huang_owen/article/details/80943772

公開された17元の記事 ウォンの賞賛1 ビュー3425

おすすめ

転載: blog.csdn.net/weixin_43983570/article/details/105182815