Word2Vec博文整理

最近在各个网站上看了一些word2vec的博文,整理出来,方面大家观看。

word2vec包括Skip-Gram和CBOW。

我主要看的是skip-gram,因为学习“网络表示学习”的需要。

首先适合看:一文详解 Word2vec 之 Skip-Gram 模型(结构篇) 和  一文详解 Word2vec 之 Skip-Gram 模型(训练篇),看完这两篇大致能理解Skip-gram的工作模式,或者说结构和运行原理。

然后推荐看这三篇 word2vec原理(一) CBOW与Skip-Gram模型基础 、 word2vec原理(二) 基于Hierarchical Softmax的模型 和 word2vec原理(三) 基于Negative Sampling的模型  通过这三篇,可以基本了解其数学原理。另外推荐这个作者的博客,这三篇博客里用到的数学知识,比如逻辑回归,比如随机梯度下降,在作者以前的博文里也能找到,数学基础像我一样差的,也有的救。

再然后可以看这两篇:算一算-Word2Vec 和 算一算-Word2Vec(2)这两篇用实际的例子,把整个W2V的计算过程演示了一遍,可以更深刻的理解。

最后看一下:一文详解 Word2vec 之 Skip-Gram 模型(实现篇)

当然最牛的还是这个系列 :word2vec 中的数学原理详解(一)目录和前言  ,但是确实有点多,看一眼容易把人看怵。

当然,这只是少数,我对skip-gram也能说是一知半解,看到其他的好博文再分享吧。

猜你喜欢

转载自blog.csdn.net/sinat_28576553/article/details/81099834
今日推荐