达观杯数据竞赛系列(二)

1,TF-IDF:

TF-IDF(term frequency–inverse document frequency)是一种用于资讯检索与资讯探勘的常用加权技术。TF-IDF是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。TF-IDF加权的各种形式常被搜寻引擎应用,作为文件与用户查询之间相关程度的度量或评级。除了TF-IDF以外,因特网上的搜寻引擎还会使用基于连结分析的评级方法,以确定文件在搜寻结果中出现的顺序。
某一特定文件内的高词语频率,以及该词语在整个文件集合中的低文件频率,可以产生出高权重的TF-IDF。因此,TF-IDF倾向于过滤掉常见的词语,保留重要的词语。
TF-IDF = TF * IDF
其中:
词频 (term frequency, TF) 指的是某一个给定的词语在该文件中出现的次数。这个数字通常会被归一化(分子一般小于分母 区别于IDF),以防止它偏向长的文件。(同一个词语在长文件里可能会比短文件有更高的词频,而不管该词语重要与否。)
TF
对于在某一特定文件里的词语重要性可表示为:
tf

逆向文件频率 (inverse document frequency, IDF)是一个词语普遍重要性的度量。某一特定词语的IDF,可以由总文件数目除以包含该词语之文件的数目,再将得到的商取对数得到。

IDF
Idf计算公式为:

图片:idf-1;
其中:

|D|:语料库中的文件总数;
上式分母为:包含词语t_i的文件数目,如果该词语不在语料库中,就会导致被除数为零,因此一般情况下使用:“该分母项”+1。

TF-IDF的主要思想是:如果某个词或短语在一篇文章中出现的频率TF高,并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分能力,适合用来分类。

2,代码实现:

可使用sklearn包来实现tf-idf。
例如:
sklearn

Reference:

TF-IDF及其算法:

http://www.cnblogs.com/biyeymyhjob/archive/2012/07/17/2595249.html;

https://blog.csdn.net/u011630575/article/details/80179494;

猜你喜欢

转载自blog.csdn.net/qq_41698853/article/details/89060910