<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
決策樹是一種十分常用的分類演演算法,屬於監督學習;也就是給出一批樣本,每個樣本都有一組屬性和一個分類結果。演演算法通過學習這些樣本,得到一個決策樹,這個決策樹能夠對新的資料給出合適的分類
假設現有使用者14名,其個人屬性及是否購買某一產品的資料如下:
編號 | 年齡 | 收入範圍 | 工作性質 | 信用評級 | 購買決策 |
---|---|---|---|---|---|
01 | <30 | 高 | 不穩定 | 較差 | 否 |
02 | <30 | 高 | 不穩定 | 好 | 否 |
03 | 30-40 | 高 | 不穩定 | 較差 | 是 |
04 | >40 | 中等 | 不穩定 | 較差 | 是 |
05 | >40 | 低 | 穩定 | 較差 | 是 |
06 | >40 | 低 | 穩定 | 好 | 否 |
07 | 30-40 | 低 | 穩定 | 好 | 是 |
08 | <30 | 中等 | 不穩定 | 較差 | 否 |
09 | <30 | 低 | 穩定 | 較差 | 是 |
10 | >40 | 中等 | 穩定 | 較差 | 是 |
11 | <30 | 中等 | 穩定 | 好 | 是 |
12 | 30-40 | 中等 | 不穩定 | 好 | 是 |
13 | 30-40 | 高 | 穩定 | 較差 | 是 |
14 | >40 | 中等 | 不穩定 | 好 | 否 |
為了方便處理,對模擬資料按以下規則轉換為數值型列表資料:
年齡:<30賦值為0;30-40賦值為1;>40賦值為2
收入:低為0;中為1;高為2
工作性質:不穩定為0;穩定為1
信用評級:差為0;好為1
#建立資料集 def createdataset(): dataSet=[[0,2,0,0,'N'], [0,2,0,1,'N'], [1,2,0,0,'Y'], [2,1,0,0,'Y'], [2,0,1,0,'Y'], [2,0,1,1,'N'], [1,0,1,1,'Y'], [0,1,0,0,'N'], [0,0,1,0,'Y'], [2,1,1,0,'Y'], [0,1,1,1,'Y'], [1,1,0,1,'Y'], [1,2,1,0,'Y'], [2,1,0,1,'N'],] labels=['age','income','job','credit'] return dataSet,labels
呼叫函數,可獲得資料:
ds1,lab = createdataset() print(ds1) print(lab)
[[0, 2, 0, 0, ‘N’], [0, 2, 0, 1, ‘N’], [1, 2, 0, 0, ‘Y’], [2, 1, 0, 0, ‘Y’], [2, 0, 1, 0, ‘Y’], [2, 0, 1, 1, ‘N’], [1, 0, 1, 1, ‘Y’], [0, 1, 0, 0, ‘N’], [0, 0, 1, 0, ‘Y’], [2, 1, 1, 0, ‘Y’], [0, 1, 1, 1, ‘Y’], [1, 1, 0, 1, ‘Y’], [1, 2, 1, 0, ‘Y’], [2, 1, 0, 1, ‘N’]]
[‘age’, ‘income’, ‘job’, ‘credit’]
資訊熵也稱為夏農熵,是隨機變數的期望。度量資訊的不確定程度。資訊的熵越大,資訊就越不容易搞清楚。處理資訊就是為了把資訊搞清楚,就是熵減少的過程。
def calcShannonEnt(dataSet): numEntries = len(dataSet) labelCounts = {} for featVec in dataSet: currentLabel = featVec[-1] if currentLabel not in labelCounts.keys(): labelCounts[currentLabel] = 0 labelCounts[currentLabel] += 1 shannonEnt = 0.0 for key in labelCounts: prob = float(labelCounts[key])/numEntries shannonEnt -= prob*log(prob,2) return shannonEnt
樣本資料資訊熵:
shan = calcShannonEnt(ds1) print(shan)
0.9402859586706309
資訊增益:用於度量屬性A降低樣本集合X熵的貢獻大小。資訊增益越大,越適於對X分類。
def chooseBestFeatureToSplit(dataSet): numFeatures = len(dataSet[0])-1 baseEntropy = calcShannonEnt(dataSet) bestInfoGain = 0.0;bestFeature = -1 for i in range(numFeatures): featList = [example[i] for example in dataSet] uniqueVals = set(featList) newEntroy = 0.0 for value in uniqueVals: subDataSet = splitDataSet(dataSet, i, value) prop = len(subDataSet)/float(len(dataSet)) newEntroy += prop * calcShannonEnt(subDataSet) infoGain = baseEntropy - newEntroy if(infoGain > bestInfoGain): bestInfoGain = infoGain bestFeature = i return bestFeature
以上程式碼實現了基於資訊熵增益的ID3決策樹學習演演算法。其核心邏輯原理是:依次選取屬性集中的每一個屬性,將樣本集按照此屬性的取值分割為若干個子集;對這些子集計算資訊熵,其與樣本的資訊熵的差,即為按照此屬性分割的資訊熵增益;找出所有增益中最大的那一個對應的屬性,就是用於分割樣本集的屬性。
計算樣本最佳的分割樣本屬性,結果顯示為第0列,即age屬性:
col = chooseBestFeatureToSplit(ds1) col
0
def majorityCnt(classList): classCount = {} for vote in classList: if vote not in classCount.keys():classCount[vote] = 0 classCount[vote] += 1 sortedClassCount = sorted(classList.iteritems(),key=operator.itemgetter(1),reverse=True)#利用operator操作鍵值排序字典 return sortedClassCount[0][0] #建立樹的函數 def createTree(dataSet,labels): classList = [example[-1] for example in dataSet] if classList.count(classList[0]) == len(classList): return classList[0] if len(dataSet[0]) == 1: return majorityCnt(classList) bestFeat = chooseBestFeatureToSplit(dataSet) bestFeatLabel = labels[bestFeat] myTree = {bestFeatLabel:{}} del(labels[bestFeat]) featValues = [example[bestFeat] for example in dataSet] uniqueVals = set(featValues) for value in uniqueVals: subLabels = labels[:] myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet, bestFeat, value), subLabels) return myTree
majorityCnt
函數用於處理一下情況:最終的理想決策樹應該沿著決策分支到達最底端時,所有的樣本應該都是相同的分類結果。但是真實樣本中難免會出現所有屬性一致但分類結果不一樣的情況,此時majorityCnt
將這類樣本的分類標籤都調整為出現次數最多的那一個分類結果。
createTree
是核心任務函數,它對所有的屬性依次呼叫ID3資訊熵增益演演算法進行計算處理,最終生成決策樹。
利用樣本資料構造決策樹:
Tree = createTree(ds1, lab) print("樣本資料決策樹:") print(Tree)
樣本資料決策樹:
{‘age’: {0: {‘job’: {0: ‘N’, 1: ‘Y’}},
1: ‘Y’,
2: {‘credit’: {0: ‘Y’, 1: ‘N’}}}}
給出一個新的使用者資訊,判斷ta是否購買某一產品:
年齡 | 收入範圍 | 工作性質 | 信用評級 |
---|---|---|---|
<30 | 低 | 穩定 | 好 |
<30 | 高 | 不穩定 | 好 |
def classify(inputtree,featlabels,testvec): firststr = list(inputtree.keys())[0] seconddict = inputtree[firststr] featindex = featlabels.index(firststr) for key in seconddict.keys(): if testvec[featindex]==key: if type(seconddict[key]).__name__=='dict': classlabel=classify(seconddict[key],featlabels,testvec) else: classlabel=seconddict[key] return classlabel
labels=['age','income','job','credit'] tsvec=[0,0,1,1] print('result:',classify(Tree,labels,tsvec)) tsvec1=[0,2,0,1] print('result1:',classify(Tree,labels,tsvec1))
result: Y
result1: N
以下程式碼用於繪製決策樹圖形,非決策樹演演算法重點,有興趣可參考學習
import matplotlib.pyplot as plt decisionNode = dict(boxstyle="sawtooth", fc="0.8") leafNode = dict(boxstyle="round4", fc="0.8") arrow_args = dict(arrowstyle="<-") #獲取葉節點的數目 def getNumLeafs(myTree): numLeafs = 0 firstStr = list(myTree.keys())[0] secondDict = myTree[firstStr] for key in secondDict.keys(): if type(secondDict[key]).__name__=='dict':#測試節點的資料是否為字典,以此判斷是否為葉節點 numLeafs += getNumLeafs(secondDict[key]) else: numLeafs +=1 return numLeafs #獲取樹的層數 def getTreeDepth(myTree): maxDepth = 0 firstStr = list(myTree.keys())[0] secondDict = myTree[firstStr] for key in secondDict.keys(): if type(secondDict[key]).__name__=='dict':#測試節點的資料是否為字典,以此判斷是否為葉節點 thisDepth = 1 + getTreeDepth(secondDict[key]) else: thisDepth = 1 if thisDepth > maxDepth: maxDepth = thisDepth return maxDepth #繪製節點 def plotNode(nodeTxt, centerPt, parentPt, nodeType): createPlot.ax1.annotate(nodeTxt, xy=parentPt, xycoords='axes fraction', xytext=centerPt, textcoords='axes fraction', va="center", ha="center", bbox=nodeType, arrowprops=arrow_args ) #繪製連線線 def plotMidText(cntrPt, parentPt, txtString): xMid = (parentPt[0]-cntrPt[0])/2.0 + cntrPt[0] yMid = (parentPt[1]-cntrPt[1])/2.0 + cntrPt[1] createPlot.ax1.text(xMid, yMid, txtString, va="center", ha="center", rotation=30) #繪製樹結構 def plotTree(myTree, parentPt, nodeTxt):#if the first key tells you what feat was split on numLeafs = getNumLeafs(myTree) #this determines the x width of this tree depth = getTreeDepth(myTree) firstStr = list(myTree.keys())[0] #the text label for this node should be this cntrPt = (plotTree.xOff + (1.0 + float(numLeafs))/2.0/plotTree.totalW, plotTree.yOff) plotMidText(cntrPt, parentPt, nodeTxt) plotNode(firstStr, cntrPt, parentPt, decisionNode) secondDict = myTree[firstStr] plotTree.yOff = plotTree.yOff - 1.0/plotTree.totalD for key in secondDict.keys(): if type(secondDict[key]).__name__=='dict':#test to see if the nodes are dictonaires, if not they are leaf nodes plotTree(secondDict[key],cntrPt,str(key)) #recursion else: #it's a leaf node print the leaf node plotTree.xOff = plotTree.xOff + 1.0/plotTree.totalW plotNode(secondDict[key], (plotTree.xOff, plotTree.yOff), cntrPt, leafNode) plotMidText((plotTree.xOff, plotTree.yOff), cntrPt, str(key)) plotTree.yOff = plotTree.yOff + 1.0/plotTree.totalD #建立決策樹圖形 def createPlot(inTree): fig = plt.figure(1, facecolor='white') fig.clf() axprops = dict(xticks=[], yticks=[]) createPlot.ax1 = plt.subplot(111, frameon=False, **axprops) #no ticks #createPlot.ax1 = plt.subplot(111, frameon=False) #ticks for demo puropses plotTree.totalW = float(getNumLeafs(inTree)) plotTree.totalD = float(getTreeDepth(inTree)) plotTree.xOff = -0.5/plotTree.totalW; plotTree.yOff = 1.0; plotTree(inTree, (0.5,1.0), '') plt.savefig('決策樹.png',dpi=300,bbox_inches='tight') plt.show()
到此這篇關於python實現決策樹分類演演算法的文章就介紹到這了,更多相關python決策樹分類演演算法內容請搜尋it145.com以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援it145.com!
相關文章
<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
综合看Anker超能充系列的性价比很高,并且与不仅和iPhone12/苹果<em>Mac</em>Book很配,而且适合多设备充电需求的日常使用或差旅场景,不管是安卓还是Switch同样也能用得上它,希望这次分享能给准备购入充电器的小伙伴们有所
2021-06-01 09:31:42
除了L4WUDU与吴亦凡已经多次共事,成为了明面上的厂牌成员,吴亦凡还曾带领20XXCLUB全队参加2020年的一场音乐节,这也是20XXCLUB首次全员合照,王嗣尧Turbo、陈彦希Regi、<em>Mac</em> Ova Seas、林渝植等人全部出场。然而让
2021-06-01 09:31:34
目前应用IPFS的机构:1 谷歌<em>浏览器</em>支持IPFS分布式协议 2 万维网 (历史档案博物馆)数据库 3 火狐<em>浏览器</em>支持 IPFS分布式协议 4 EOS 等数字货币数据存储 5 美国国会图书馆,历史资料永久保存在 IPFS 6 加
2021-06-01 09:31:24
开拓者的车机是兼容苹果和<em>安卓</em>,虽然我不怎么用,但确实兼顾了我家人的很多需求:副驾的门板还配有解锁开关,有的时候老婆开车,下车的时候偶尔会忘记解锁,我在副驾驶可以自己开门:第二排设计很好,不仅配置了一个很大的
2021-06-01 09:30:48
不仅是<em>安卓</em>手机,苹果手机的降价力度也是前所未有了,iPhone12也“跳水价”了,发布价是6799元,如今已经跌至5308元,降价幅度超过1400元,最新定价确认了。iPhone12是苹果首款5G手机,同时也是全球首款5nm芯片的智能机,它
2021-06-01 09:30:45