决策树--ID3 算法(一) (2)

             

决策树--ID3 算法(一)

   而这里的

决策树--ID3 算法(一)

就是类别的总数,此时分类系统的熵就可以表示为

             

决策树--ID3 算法(一)

   以上就是信息熵的定义,接下来介绍信息增益

   信息增益是针对一个一个特征而言的,就是看一个特征

决策树--ID3 算法(一)

,系统有它和没有它时的信息量各是多少,两者

   的差值就是这个特征给系统带来的信息量,即信息增益

   接下来以天气预报的例子来说明。下面是描述天气数据表,学习目标是play或者not play

   

决策树--ID3 算法(一)

   可以看出,一共14个样例,包括9个正例和5个负例。那么当前信息的熵计算如下

   

决策树--ID3 算法(一)

   在决策树分类问题中,信息增益就是决策树在进行属性选择划分前和划分后信息的差值。假设利用

   属性Outlook来分类,那么如下图

   

决策树--ID3 算法(一)

      划分后,数据被分为三部分了,那么各个分支的信息熵计算如下

 

       

决策树--ID3 算法(一)

 

       那么划分后的信息熵为

        

决策树--ID3 算法(一)

        

决策树--ID3 算法(一)

代表在特征属性

决策树--ID3 算法(一)

的条件下样本的条件熵。那么最终得到特征属性

决策树--ID3 算法(一)

带来的信息增益为

        

决策树--ID3 算法(一)

   信息增益的计算公式如下

   

决策树--ID3 算法(一)

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zwzjdy.html