【吴恩达深度学习】Word Embedding 理解

最近在学习吴恩达老师的深度学习–NLP部分课程时,对里面提到的Word Embedding 让我特别费解,完全不能明白是什么意思,经过这几天查阅大佬们的博客,今天终于搞明白是啥意思了,大佬们写的东西都非常好,非常全面,我博客就直接引用进来,顺便在讲讲自己现在对这个概念的理解吧。

大佬们的理解:
1、Word Embedding与Word2Vec
2、自然语言处理(NLP)之Word Embedding

强烈建议先看第一篇推荐,写的很好,通俗易懂。


Word Embedding 这个在术语是运用数学方法来表示一个词,类似于数学中的映射(f: x -> y),但为什么不叫Word Mapping 了?这就要弄明白Embedding的数学意思了。
这个词Embedding,它广泛存在于包括代数、拓扑与几何等诸多数学领域。它主要表征某个数学结构中的一个实例被包含在另外一个实例中,例如一个group它同时又是一个subgroup。

看到加粗的地方我的思路就开始清晰了,嵌入是在强调一个实例被包含到另外一个实例中,而映射是不一定的。自然语言处理技术就是利用数学向量的方法,把我们生活中所遇到的词用低维向量的方式表示输入给机器,这样计算机可以更清晰明确地理解单词的意思。而我们人类社会现在创造的词汇都是已知的,确定的,这个集合对于现在的计算机来说,其实很小,所以我们完全可以创造另外一个实例来包含它,因此把这个概念叫做“Word Embedding”

猜你喜欢

转载自blog.csdn.net/jackhh1/article/details/108345511