动手实践用LDA模型计算两篇英文文档相似度

知道原理的同学这部分可以略过直接看实践部分

什么是TD-IDF?

构造文档模型

我们这里使用空间向量模型数据化文档内容:向量空间模型中将文档表达为一个矢量。

用特征向量(T1,W1;T2,W2;T3, W3;…;Tn,Wn)表示文档。

Ti是词条项,Wi是Ti在文档中的重要程度, 即将文档看作是由一组相互独立的词条组构成,把T1,T2 …,Tn看成一个n 维坐标系中的坐标轴,对于每一词条,根据其重要程度赋以一定的权值Wi,作为对应坐标轴的坐标值。 

权重Wi用词频表示,词频分为绝对词频相对词频

绝对词频,即用词在文本中出现的频率表示文本。

相对词频,即为归一化的词频,目前使用 最为频繁的是TF*IDF(Term Frequency * Inverse Document Frequency)TFIDF

将文档量化了之后我们很容易看出D1与Q更相似~因为D1与Q的夹角小,我们可以用余弦cos表示

分析一下这个例子:

有三个文档D1,D2,Q

这三个文档一共出现了三个词条,我们分别用T1,T2,T3表示

在文档D1中词条T1的权重为2,T2权重为3,T3权重为5

在文档D2中词条T1权重为0,T2权重为7,T3权重为1

在文档Q中词条T1权重为0,T2权重为0,T3权重为2

  D1 D2 Q
T1 2 3 0
T2 3 7 0
T3 3 1 2

接下来我们看tf*idf的公式:

tf:tf(d,t) 表示词条t 在文档d 中的出现次数

idf:idf(t)=log N/df(t)

  • df(t) 表示词条t 在文本集合中出现过的文本数目(词条t在哪些文档出现过) Inverse Document Frequency

  • N 表示文本总数

对于词条t和某一文本d来说,词条在该文本d的权重计算公式:

特征向量(T1,W1;T2,W2;T3, W3;…;Tn,Wn)就可以求出了!

是不是很简单呢~

进一步思考:

如果说一个词条t几乎在每一个文档中都出现过那么:

idf(t)=log N/df(t)

趋近于0,此时w(t)也趋近于0,从而使得该词条在文本中的权重很小,所以词 条对文本的区分度很低。

停用词:在英文中如a,of,is,in.....这样的词称为停用词,它们都区分文档的效果几乎没有,但是又几乎在每个文档中都出现,此时idf的好处就出来了

我们通常根据w(d,t)值的大小,选择 指定数目的词条作为文本的特征项,生 成文本的特征向量(去掉停用词)

这种算法一方面突 出了文档中用户需要的词,另一方面, 又消除了在文本中出现频率较高但与文本语义无关的词条的影响

文本间相似性 :

基于向量空间模型的常用方法,刚才我们提到过可以用余弦值来计算,下面我讲一下具体步骤

内积不会求得自行百度。。。。

为了提高计算效率:可以先算x^'=x/|x|,y^'=y/|y|;大量计算两两文档间相似度时,为降低计算量,先对文档进行向量进行单位化。

ok~tf*idf就先到这里

总结:

我们可以通过计算tf*idf的值来作为特征向量的权重,把权重为0的词去掉

然后通过计算特征向量之间的余弦值来判断相似性。

什么是LDA?

猜你喜欢

转载自www.cnblogs.com/ldphoebe/p/5616770.html
今日推荐