赞助商

决策树---ID3算法(介绍及Python实现)

发布时间:2019-02-10 发布网站:脚本之家
脚本之家收集整理的这篇文章主要介绍了决策树---ID3算法(介绍及Python实现)脚本之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

<p style="text-align: center;"><span style="font-size: 18pt;">决策树---ID3算法

 

决策树:

以天气数据库的训练数据为例。

<table style="width: 564px;" border="1" cellspacing="0" cellpadding="0">
<tr>
<td width="100">
<p align="center">Outlook


</td>
<td width="147">
<p align="center">Temperature


</td>
<td width="105">
<p align="center">Humidity


</td>
<td width="105">
<p align="center">Windy


</td>
<td width="107">
<p align="center">PlayGolf?


</td>
</tr>
<tr>
<td width="100">
<p align="center">sunny


</td>
<td width="147">
<p align="center">85


</td>
<td width="105">
<p align="center">85


</td>
<td width="105">
<p align="center">FALSE


</td>
<td width="107">
<p align="center">no


</td>
</tr>
<tr>
<td width="100">
<p align="center">sunny


</td>
<td width="147">
<p align="center">80


</td>
<td width="105">
<p align="center">90


</td>
<td width="105">
<p align="center">TRUE


</td>
<td width="107">
<p align="center">no


</td>
</tr>
<tr>
<td width="100">
<p align="center">overcast


</td>
<td width="147">
<p align="center">83


</td>
<td width="105">
<p align="center">86


</td>
<td width="105">
<p align="center">FALSE


</td>
<td width="107">
<p align="center">yes


</td>
</tr>
<tr>
<td width="100">
<p align="center">rainy


</td>
<td width="147">
<p align="center">70


</td>
<td width="105">
<p align="center">96


</td>
<td width="105">
<p align="center">FALSE


</td>
<td width="107">
<p align="center">yes


</td>
</tr>
<tr>
<td width="100">
<p align="center">rainy


</td>
<td width="147">
<p align="center">68


</td>
<td width="105">
<p align="center">80


</td>
<td width="105">
<p align="center">FALSE


</td>
<td width="107">
<p align="center">yes


</td>
</tr>
<tr>
<td width="100">
<p align="center">rainy


</td>
<td width="147">
<p align="center">65


</td>
<td width="105">
<p align="center">70


</td>
<td width="105">
<p align="center">TRUE


</td>
<td width="107">
<p align="center">no


</td>
</tr>
<tr>
<td width="100">
<p align="center">overcast


</td>
<td width="147">
<p align="center">64


</td>
<td width="105">
<p align="center">65


</td>
<td width="105">
<p align="center">TRUE


</td>
<td width="107">
<p align="center">yes


</td>
</tr>
<tr>
<td width="100">
<p align="center">sunny


</td>
<td width="147">
<p align="center">72


</td>
<td width="105">
<p align="center">95


</td>
<td width="105">
<p align="center">FALSE


</td>
<td width="107">
<p align="center">no


</td>
</tr>
<tr>
<td width="100">
<p align="center">sunny


</td>
<td width="147">
<p align="center">69


</td>
<td width="105">
<p align="center">70


</td>
<td width="105">
<p align="center">FALSE


</td>
<td width="107">
<p align="center">yes


</td>
</tr>
<tr>
<td width="100">
<p align="center">rainy


</td>
<td width="147">
<p align="center">75


</td>
<td width="105">
<p align="center">80


</td>
<td width="105">
<p align="center">FALSE


</td>
<td width="107">
<p align="center">yes


</td>
</tr>
<tr>
<td width="100">
<p align="center">sunny


</td>
<td width="147">
<p align="center">75


</td>
<td width="105">
<p align="center">70


</td>
<td width="105">
<p align="center">TRUE


</td>
<td width="107">
<p align="center">yes


</td>
</tr>
<tr>
<td width="100">
<p align="center">overcast


</td>
<td width="147">
<p align="center">72


</td>
<td width="105">
<p align="center">90


</td>
<td width="105">
<p align="center">TRUE


</td>
<td width="107">
<p align="center">yes


</td>
</tr>
<tr>
<td width="100">
<p align="center">overcast


</td>
<td width="147">
<p align="center">81


</td>
<td width="105">
<p align="center">75


</td>
<td width="105">
<p align="center">FALSE


</td>
<td width="107">
<p align="center">yes


</td>
</tr>
<tr>
<td width="100">
<p align="center">rainy


</td>
<td width="147">
<p align="center">71


</td>
<td width="105">
<p align="center">91


</td>
<td width="105">
<p align="center">TRUE


</td>
<td width="107">
<p align="center">no


</td>
</tr>

这个例子是根据报告天气条件的记录来决定是否外出打高尔夫球。

作为分类器,决策树是一棵有向无环树。

由根节点、叶节点、内部点、分割属性、分割判断规则构成

生成阶段:决策树的构建和决策树的修剪。

根据分割方法的不同:有基于信息论(Information Theory的方法和基于最小GINI指数(lowest GINI index的方法。对应前者的常见方法有ID3、C4.5,后者的有CART

 ID3 算法

       ID3的基本概念是:

热力学中表征物质状态的参量之一,用符号S表示,其物理意义是体系混乱程度的度量。热力学第二定律(second law of thermodynamics),基本定律之一,又称“熵增定律”,表明在自然过程中,一个孤立系统的总混乱度(即“熵”)不会减小。

在信息论中,变量的不确定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大。信息熵是中用于度量信息量的一个概念。一个系统越是有序,信息熵就越低;反之,一个系统越是混乱,信息熵就越高。所以,信息熵也可以说是系统程度的一个度量。

 信息增益的计算

定义1:若存在个相同概率的消息,则每个消息的概率是,一个消息传递的信息量为。若有16个事件,则,需要4个比特来代表一个消息。

定义2若给定概率分布则由该分布传递的信息量称为的熵,即

例:若是,则是1;若是,则是0.92;若

是,则是0(注意概率分布越均匀,其信息量越大)

定义3若一个记录的集合根据类别属性的值被分为相互独立的类,则识别的一个元素所属哪个类别所需要的信息量是,其中是的概率分布,即

仍以天气数据库的数据为例。我们统计了14天的气象数据(指标包括outlook,temperature,humidity,windy),并已知这些天气是否打球(play)。如果给出新一天的气象指标数据,判断一下会不会去打球。在没有给定任何天气信息时,根据历史数据,我们知道一天中打球的概率是9/14,不打的概率是5/14。此时的熵为:

定义4:若我们根据某一特征属性将分成集合,则确定中的一个元素类的信息量可通过确定的加权平均值来得到,即的加权平均值为:

<table style="width: 568px;" border="1" cellspacing="0" cellpadding="0">
<tr>
<td colspan="3" valign="top" width="147">

Outlook

temperature

humidity

windy

play

</td>
<td valign="top" width="39">

yes

no

</td>
<td rowspan="4" valign="top" width="110">

</td>
<td valign="top" width="47">

</td>
<td valign="top" width="37">

yes

no

yes

no

sunny

2

3

False

6

2

9

5

overcast

4

0

True

3

3

</td>
<td valign="top" width="37">

</td>
</tr>
<tr>
<td valign="top" width="69">

rainy

3

2

</td>
<td valign="top" width="37">

</td>
<td valign="top" width="37">

</td>
<td valign="top" width="38">

</td>
<td valign="top" width="37">

</td>
</tr>

针对属性Outlook,我们来计算

定义5:将信息增益定义为:

即增益的定义是两个信息量之间的差值,其中一个信息量是需确定的一个元素的信息量,另一个信息量是在已得到的属性的值后确定的一个元素的信息量,即信息增益与属性相关。

针对属性Outlook的增益值:

若用属性windy替换outlook,可以得到,。即outlook比windy取得的信息量大。

ID3算法的Python实现

def calcShannonEnt(dataset):
numEntries = len(dataset)
labelCounts = {}
for featVec in dataset:
currentLabel = featVec[-1]
if currentLabel not in labelCounts.keys():
labelCounts[currentLabel] = 0
labelCounts[currentLabel] +=1

shannonEnt = 0.0
for key in labelCounts:
    prob = float(labelCounts[key])/numEntries
    shannonEnt -= prob*math.log(prob,2)
return shannonEnt

def CreateDataSet():
dataset = [[1,1,'yes' ],[1,'no'],[0,'no']]
labels = ['no surfacing','flippers']
return dataset,labels

def splitDataSet(dataSet,axis,value):
retDataSet = []
for featVec in dataSet:
if featVec[axis] == value:
reducedFeatVec = featVec[:axis]
reducedFeatVec.extend(featVec[axis+1:])
retDataSet.append(reducedFeatVec)

return retDataSet

def chooseBestFeatureToSplit(dataSet):
numberFeatures = len(dataSet[0])-1
baseEntropy = calcShannonEnt(dataSet)
bestInfoGain = 0.0;
bestFeature = -1;
for i in range(numberFeatures):
featList = [example[i] for example in dataSet]
uniqueVals = set(featList)
newEntropy =0.0
for value in uniqueVals:
subDataSet = splitDataSet(dataSet,i,value)
prob = len(subDataSet)/float(len(dataSet))
newEntropy += prob * calcShannonEnt(subDataSet)
infoGain = baseEntropy - newEntropy
if(infoGain > bestInfoGain):
bestInfoGain = infoGain
bestFeature = i
return bestFeature

def majorityCnt(classList):
classCount ={}
for vote in classList:
if vote not in classCount.keys():
classCount[vote]=0
classCount[vote]=1
sortedClassCount = sorted(classCount.iteritems(),key=operator.itemgetter(1),reverse=True)
return sortedClassCount[0][0]

def createTree(dataSet,labels):
classList = [example[-1] for example in dataSet]
if classList.count(classList[0])==len(classList):
return classList[0]
if len(dataSet[0])==1:
return majorityCnt(classList)
bestFeat = chooseBestFeatureToSplit(dataSet)
bestFeatLabel = labels[bestFeat]
myTree = {bestFeatLabel:{}}
del(labels[bestFeat])
featValues = [example[bestFeat] for example in dataSet]
uniqueVals = set(featValues)
for value in uniqueVals:
subLabels = labels[:]
myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet,bestFeat,value),subLabels)
return myTree

myDat,labels = CreateDataSet()
createTree(myDat,labels)

运行结果如下:

总结

以上是脚本之家为你收集整理的决策树---ID3算法(介绍及Python实现)全部内容,希望文章能够帮你解决决策树---ID3算法(介绍及Python实现)所遇到的程序开发问题。

如果觉得脚本之家网站内容还不错,欢迎将脚本之家网站推荐给程序员好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:76874919,请注明来意。
标签: