决策树算法(C4.5)

决策树算法(C4.5)

ID3具有一定的局限性,即信息增益倾向于选择取值比较多的特征(特征越多,条件熵(特征划分后的类别变量的熵)越小,信息增量就越大),C4.5通过选择最大的信息增益率 gain ratio 来选择节点可以解决该问题。并且C4.5算法可以处理连续和有缺失值的数据。

C4.5与ID3在实现过程中,不同之处在于将计算信息增益的函数改为计算信息增益率。

 

 

 

譬如,对于上一个例子中的湿度这一项的取值改为:

Day

Outlook

Temperature

Humidity

Wind

PlayTennis

1

Sunny

Hot

85

Weak

No

2

Sunny

Hot

90

Strong

No

3

Overcast

Hot

78

Weak

Yes

4

Rain

Mild

96

Weak

Yes

5

Rain

Cool

80

Weak

Yes

6

Rain

Cool

70

Strong

No

7

Overcast

Cool

65

Strong

Yes

8

Sunny

Mild

95

Weak

No

9

Sunny

Cool

70

Weak

Yes

10

Rain

Mild

80

Weak

Yes

11

Sunny

Mild

70

Strong

Yes

12

Overcast

Mild

90

Strong

Yes

13

Overcast

Hot

75

Weak

Yes

14

Rain

Mild

80

Strong

No

 

Gain(Wind) = Entropy(S) – (8/14)* Entrogy(weak)-(6/14)* Entrogy(strong) = 0.048

 

weak = 8;Strong = 6

Feature(Wind) = -8/14*log(8/14)-6/14*log(6/14) = 0.9852

 

RatioGain(Wind) = Gain(Wind)/Feature (Wind) = 0.0487

 

同理:RatioGain(Outlook) = 0.247/1.577 = 0.1566

RatioGain(Temperature)= 0.029/1.556 = 0.018

其中,对于连续值的计算:

1.      对特征的取值进行升序排序

2.      两个特征取值之间的中点作为可能的分裂点,将数据集分成两部分,计算每个可能的分裂点的信息增益(InforGain)。优化算法就是只计算分类属性发生改变的那些特征取值。

3.      选择修正后信息增益(InforGain)最大的分裂点作为该特征的最佳分裂点

4.      计算最佳分裂点的信息增益率(Gain Ratio)作为特征的Gain Ratio。注意,此处需对最佳分裂点的信息增益进行修正:减去log2(N-1)/|D|(N是连续特征的取值个数,D是训练数据数目,此修正的原因在于:当离散属性和连续属性并存时,C4.5算法倾向于选择连续特征做最佳树分裂点)

 

故,划分为:{ 65、70、75、78、80、85、90、95、96 } 这几个特征。

 

 

65

70

75

78

80

85

90

95

96

 

Yes

1

8

3

6

4

5

5

4

7

2

7

2

8

1

8

1

9

0

No

0

5

1

4

1

4

1

4

2

3

3

2

4

1

5

0

5

0

Entropy

0

0.961

0.811

0.971

0.722

0.991

0.65

1

0.764

0.971

0.881

1

0.918

1

0.961

0

0.94

0

Gain

0.048

0.015

0.045

0.090

0.102

0.025

0.011

0.048

0

此时,可以看到当特征小于等于80时,信息增益最大,选取该取值区间作为湿度属性的信息增益。

即Gain(Humidity) = 0.102

Feature(Humidity) = -9/14*log(9/14) – 5/14*log(5/14) = 0.940(两个分支,大于80的和小于等于80的)

RatioGain(Humidity) = 0.102/0.940 = 1.085

 

 

//————————————————

对于ID3算法局限性的理解:

X = [['sunny',    'hot',   'h_85',   'weak'],
     ['sunny',    'hot',   'h_90',   'strong'], 
     ['overcast', 'hot',   'h_78',   'weak'], 
     ['rain',     'mild',  'h_96',   'weak'], 
     ['rain',     'cool',  'h_80', 'weak'], 
     ['rain',     'cool',  'h_70', 'strong'], 
     ['overcast', 'cool',  'h_65', 'strong'], 
     ['sunny',    'mild',  'h_95',   'weak'], 
     ['sunny',    'cool',  'h_70', 'weak'], 
     ['rain',     'mild',  'h_80', 'weak'], 
     ['sunny',    'mild',  'h_70', 'strong'], 
     ['overcast', 'mild',  'h_90',   'strong'], 
     ['overcast', 'hot',   'h_75', 'weak'], 
     ['rain',     'mild',  'h_80',   'strong'], 
]

  对于ID3算法的输入改为,可以看到生成的决策树为:

 <span>决策树算法(C4.5)</span>

可以看到,此时就会出现过拟合的现象。

而采用信息增益率作为判决条件的话:

estimator = Id3Estimator(gain_ratio=1)

  获得的决策树为:

<span>决策树算法(C4.5)</span>

因此,对于使用信息增益作为分类准则和使用信息增益率的区别如上所示。 

//———————————–

 

对于处理数值的理解:

解读python的第三方库,ID3模块(decision-tree-id3

 

在其中id3.py模块中:

Id3Estimator类的fit函数中

for i in range(self.n_features):
            if check_input and check_numerical_array(X_[:, i]):
                self.is_numerical[i] = True
                X_tmp[:, i] = X_[:, i]
            else:
                X_tmp[:, i] = self.X_encoders[i].fit_transform(X_[:, i])

  这里会判断一下传递的特征是名字还是数字,判断的方法在checks.py中:

def check_numerical_array(array):
    """ Check if all values in a 1d array are numerical. Raises error if array
        is more than 1d.

    Parameters
    ----------
    array : nparray
        containing the class names

    Returns
    -------
    result : bool
        True if all values in array are numerical, otherwise false
    """
    try:
        if array.ndim > 1:
            raise ArithmeticError("Found array with dim {}. Expected = 1."
                                  .format(array.ndim))
        array.astype(np.float64)
        return True
    except ValueError:
        return False

  此处会做一个类型转换,如果输入的是数字、字符串形式的数字都会被转为float类型。

(此次我觉得不太妥当,字符串形式的数字不应该转化为数字,说不定人家就是想这样输入作为feature呢,譬如我上面的输入数字的开头还要加一个 ‘h_’)

当特征为数字的时候计算方法在splitter.py文件中:

def _info_numerical(self, x, y):
        """ Info for numerical feature feature_values
        sort values then find the best split value

        Parameters
        ----------
        x : np.array of shape [n remaining examples]
            containing feature values
        y : np.array of shape [n remaining examples]
            containing relevent class

        Returns
        -------
        : float
            information for remaining examples given feature
        : float
            pivot used set1 < pivot <= set2
        """
        n = x.size
        sorted_idx = np.argsort(x, kind='quicksort')
        sorted_y = np.take(y, sorted_idx, axis=0)
        sorted_x = np.take(x, sorted_idx, axis=0)
        min_info = float('inf')
        min_info_pivot = 0
        min_attribute_counts = np.empty(2)
        for i in range(1, n):
            if sorted_x[i - 1] != sorted_x[i]:
                tmp_info = i * self._entropy(sorted_y[0: i]) + \
                           (n - i) * self._entropy(sorted_y[i:])
                if tmp_info < min_info:
                    min_attribute_counts[SplitRecord.LESS] = i
                    min_attribute_counts[SplitRecord.GREATER] = n - i
                    min_info = tmp_info
                    min_info_pivot = (sorted_x[i - 1] + sorted_x[i]) / 2.0
        return CalcRecord(CalcRecord.NUM,
                          min_info * np.true_divide(1, n),
                          pivot=min_info_pivot,
                          attribute_counts=min_attribute_counts)

  

可以看到,其计算过程和上述对于数值的计算过程一样,其min_info为选取的最小的分类后的信息熵,为了得到最大的信息增益。

 

而对于是否使用信息增益率的判断在splitter.py文件中:

def _is_better(self, calc_record1, calc_record2):
        """Compares CalcRecords using gain ratio if present otherwise
           using the  information.

        Parameters
        ----------
        calc_record1 : CalcRecord
        calc_record2 : CalcRecord

        Returns
        -------
        : bool
            if calc_record1 < calc_record2
        """
        if calc_record1 is None:
            return True
        if calc_record2 is None:
            return False
        if self.gain_ratio:
            if calc_record1.gain_ratio is None:
                calc_record1.gain_ratio = self._gain_ratio(calc_record1)
            if calc_record2.gain_ratio is None:
                calc_record2.gain_ratio = self._gain_ratio(calc_record2)
            if self._is_close(calc_record1.gain_ratio,
                              calc_record2.gain_ratio):
                return calc_record1.info > calc_record2.info
            else:
                return calc_record1.gain_ratio < calc_record2.gain_ratio
        else:
            return calc_record1.info > calc_record2.info

  

故,对于C4.5算法,同样可以使用ID3模块,只不过设置参数:gain_ratio=True即可。

得到的决策树为:

<span>决策树算法(C4.5)</span>

 下面我们验证在sunny情况下,humidity的划分便准是否正确:

Day

Outlook

Temperature

Humidity

Wind

PlayTennis

1

Sunny

Hot

85

Weak

No

2

Sunny

Hot

90

Strong

No

8

Sunny

Mild

95

Weak

No

9

Sunny

Cool

70

Weak

Yes

11

Sunny

Mild

70

Strong

Yes

首先计算humidity:

 

70

85

90

95

 

Yes

2

0

2

0

2

0

2

0

No

0

3

1

2

2

1

3

0

Entropy

0

0

0.756

0

0.846

0

0.971

0

Gain

0.971

0.517

0.294

0

Gain(humidity) = 0.971

Feature(humidity) = -2/5*log(-2/5) – 3/5*log(3/5) = 0.971(分两组,小于等于70的有2个数据,大于70的有3个数据)

RatioGain(humidity) = 1

 

Gain(Temperature) = 0.971 –  (-log(0.5) * 2/5) = 0.571

Feature(Temperature) = -2/5*log(-2/5)*2 – 1/5*log(1/5) = 1.522(分三组,分别有2、2、1个数据)

RatioGain(Temperature) = 0.375

 

Gain(Wind) = 0.971 – (3/5*(-1/3*log(1/3)-2/3*log(2/3)) + 2/5( -1/2*log(1/2)-1/2*log(1/2)))= 0.02

Feature(Wind) = 0.971

RatioGain(Wind) = 0.02

 

因此,程序得到的结果是对的。

 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/119483.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • 用Java实现QQ登录[通俗易懂]

    用Java实现QQ登录[通俗易懂]Java实现QQ登录写了一个个人网站,增加一个登录的地方,自己写登录太麻烦,而且用户一般也不愿意去登录,接入QQ互联,实现QQ一键登录。所有前提是你得有一个IP地址和域名。==ps:==用处不大,主要是写着玩1进入qq互联官网进入点击头像个创建提交申请2选择个人接入,按照步骤填写注册资料创建成功通过后会哦显示接入的个人信息。3审核成功后点击下面的开始创建,按步骤完成创建过程。4创建成功后可以查看APPID和APPkey,很重要在应用管理界面可以查看如上信息,点击查看就可以

    2022年7月7日
    26
  • OSError: Unable to create file[通俗易懂]

    OSError: Unable to create file[通俗易懂]问题描述:在用h5py保存训练好的tensorflow模型时报错:OSError:Unabletocreatefile(unabletoopenfile:name=’./training_1/cp.ckpt’,errno=2,errormessage=’Nosuchfileordirectory’,flags=13,o_flags=2…

    2022年6月24日
    37
  • SQL数据库学习总结(一)

    SQL数据库学习总结(一)前序这是面向后端开发者的 SQL 数据库知识的一次总结 由于本人目前正在找工作 所以边学边做笔记 以便日后复习使用 SQL 数据库即结构化查询语言数据库 名字就说明了要学习的内容的两个特点 1 操作数据库的语言 2 语言的操作对象 在我个人看来了解语言的操作对象要必了解语言更加首 先 重 要 我对数据库的学习就是以数据库为核心 语言为辅助进行的 什么是结构化数据库

    2026年2月1日
    1
  • js中find的用法_js中find函数

    js中find的用法_js中find函数首先简单的介绍一下ES6是什么,可能很多人还是第一次听说,我们都知道H5是html的新一代的标准,同样,ES6是javascript的新一代标准,全称是ECMAScript6.0,简称ES6,其实不是什么神秘的东西。15年6月发布的。今天我们要说的是结合ES6新特性谈一下js里面的一个很好用的方法-find()现在的前端和过去的不一样,过去的前端只要会画页面就行了,但是现在仅仅会画页面已…

    2022年10月14日
    2
  • noip2018普及组初赛解析_NOIP复赛

    noip2018普及组初赛解析_NOIP复赛博主是一个高中生,在进行noip训练的时候遇到这一题,当时写了2个多小时惭愧啊惭愧,只能感叹一声普及组好可怕!!!然而这题在code.vs里只有黄金。。。我现在很怀疑自己是怎么做出那些大师题的。。。原题链接在此:http://codevs.cn/problem/1133/好了,现在我们来分析一下这个题目。这个题目中读入的字符串是只有‘*’、‘+’、‘(‘和’)‘的,而

    2022年9月25日
    3
  • 简单的说下nginx和apache的区别~~~[通俗易懂]

    简单的说下nginx和apache的区别~~~[通俗易懂]浅谈nginx和apache的优缺点~~~一、分别介绍nginx和apache1.nginx2.apache二、apache相对于nginx的优缺点1.优点2.缺点总结一、分别介绍nginx和apache1.nginx什么是nginx:Nginx是一个高性能的HTTP和反向代理服务器,同时还是IMAP/POP3/SMTP代理服务器,该程序由俄罗斯Rambler.ru站点开发,Nginx因为性能稳定、低系统资源消耗而闻名,近几年Nginx在国内已经成炙热化状态,比如像腾讯、网易、51CTO、迅雷、当当

    2022年5月29日
    35

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号