組み込みベクター単語単語単語の埋め込み

Wordの組み込み言葉埋め込みます

埋め込み埋め込み

埋め込み:埋め込み、数学的にFマップを示す:Xは、マッピング空間であるX-> yは、それに対応するY、X yを一意スペース各空間におけるY移動する空間であり、x有しています。、ユニークな埋め込みにYに埋め込まれた空間、X yを見つけるために、すなわちx位置を埋め込みます。

埋め込まれた単語を埋め込む単語

それは、すべての単語が単語および各単語は、単語ベクトルであるユニークなベクトルに対応する、ベクトル空間に埋め込まれたテキストのライブラリを提示することが期待されます。

だから、ワンホットワードがword2Vecを埋め込む言葉も提案を達成するために、プログラムの実施の埋め込みです。

なぜ言葉の埋め込みを提案していますか?

アイデアの本質はすべての単語のコーパスは、ベクターのみが宇宙の向きと何とか言葉の意味を測定することができ、位置、およびので、感情的で、このベクトルの間のベクトル空間にマップすることです。そこで、従来の統計ベースのn-gramモデルの後、ワンホットモデルは、単語ベクトルを始め、その後、ワンホットモデルは、ハード分類に属したから、唯一異なるとのメッセージで同じ言葉、不合理なCI、意味を失いました意味の間、彼は訓練する単語ベクトルモデルの深学習を提案し、後に今より多くの有名なword2vecモデルで、改善されました。
word2vecモデル自体は、実際に2つのアルゴリズムを含むモデルであり、ワードコーパスをベクトル空間にマッピングされ、ワードベクトルを取得することを意味します。

埋め込み層

初心者NLPの知識、私たちはしばしば層を埋め込む聞き、私はそれが何を意味するのか知りませんでした。
私は、埋め込み層が完全に接続されている層であることを理解します。このパラメータは、完全に、すなわち、マトリックス層に接続されています。新たなベクトルを得るためのワンホットエンコーディングフルワード接続層の行列乗算係数、ベクトルはベクトル・ワードであり、この1層が話すために、実際には、完全に接続された埋め込み層と呼ばれワードは、マッピング行列ベクトルにマッピングされます。そして、このようなパラメータの係数行列は、つまり、層の接続層を埋め込むこの全体の引数は内部word2vecモデルの2つのアルゴリズムについて詳しく学ぶために、取得する方法で、ぶっきらぼうにポイントが単語の上に他のタスクを実行するために、深い学習であると述べました第一の層の係数は、完全に接続された層、すなわち行列のマッピング、すなわち埋め込み層を保持している場合。

最後に書かれました

特定word2vecモデルは、当分の間はここに凝っていないか、のようなものです。私はちょうど再学習プロセス、大半説明し、また、ワード埋め込み何であるか明確ではありませんでしたword2vecミックスをwordEmbedding話をするの両方、高齢者は非常に明確に、私は理解を所有するために記録とを参照してください他の人が参照します。もちろん、私はそれがあるかもしれない理解し、右、と批判を歓迎します

おすすめ

転載: www.cnblogs.com/Lin-Yi/p/11611428.html