决策树和信息熵

有没有玩过或听过这样一个游戏:参与游戏的一方在脑海里想好某个事物,然后其他参与者向他提问,回答者只能回答是还是不是。问问题的人通过答案推理,不断缩小待猜事物的范围。

其实上面的过程就类似于决策树的工作原理。

就像上面那个游戏,关键点在于如何问问题,那决策树的关键,就在于如何划分数据集。

划分数据集的大原则就是:将无序的数据变得更加有序。那用什么衡量有序和无需呢?就是信息熵。

要说信息熵,先说说信息量。信息量的公式如下:


其中p(x)是事件发生的概率。从公式可以看出,概率越大,信息量越小。显然是这样,我如果说太阳从东边升起,没什么信息量。如果我说太阳从西边升起,那信息量就太大了。

下面我们正式引出信息熵。

信息量度量的是一个具体事件发生了所带来的信息,而熵则是在结果出来之前对可能产生的信息量的期望——考虑该随机变量的所有可能取值,即所有可能发生事件所带来的信息量的期望。那自然是所有信息的求和:

333

所以说,熵越大,不确定性越大,越无序;熵越小,确定性越大,越有序。

所以我们构建决策树划分数据集的时候,应该选择划分前后信息熵变化最大的那种方式。划分前后信息熵变化称为信息增益(information gain),但实际上在数据集划分后,信息熵是减少的,信息熵减少也叫信息增益,这也是经常会困扰初学者的一个地方。

猜你喜欢

转载自blog.csdn.net/angciyu/article/details/79650452
今日推荐