役割の埋め込み層の深さの研究

その理由の使用を埋め込みます:

  1. ワンホット符号化方法を使用して高次元ベクトルも非常に疎であるであろう。私たちは、自然言語処理(NLP)が2000個の単語を含む辞書に遭遇行うと仮定し、ワンホットエンコーディングを使用して、一度、各単語は、1999年の数が0の場所を示すために含ま2000の整数のベクトルでありますその後、私の辞書とは少し大きな、そしてこのアプローチの計算効率は、それが危険にさらされていない場合は?

  2. ニューラルネットワークを訓練するプロセスは、各埋め込みベクトルが更新されます。あなたは上の写真のブログを参照してください場合は、視覚的に単語間の関係だけではなく、言葉、埋め込みを埋め込むことにより、任意の層を理解するために私たちを可能にする多次元空間における単語間の類似点の数を、見つけますそうすることができ、ベクターの内容に変換 

おすすめ

転載: www.cnblogs.com/hanxuexi/p/11619837.html