人工智能学习

AI-机器学习-自学笔记(五)决策树算法

本文主要是介绍AI-机器学习-自学笔记(五)决策树算法,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。

 

        简单说就是依据熵值计算,不断地做出选择,直到获得最终结果(熵值为0或者在设定的某个范围内)。根据计算方法不同,有ID3算法、C4.5算法、CART算法等。

 

        每个对象就是一个节点,开始的地方叫根节点,最后不能分的地方叫叶子节点。

 

剪枝

        剪枝是决策树停止分支的方法之一,剪枝有分预先剪枝和后剪枝两种。

 

        预先剪枝是在树的生长过程中设定一个指标,当达到该指标时就停止生长,这样做容易产生“视界局限”,就是一旦停止分支,使得节点N成为叶节点,就断绝了其后继节点进行“好”的分支操作的任何可能性。

 

        后剪枝中树首先要充分生长,直到叶节点都有最小的不纯度值为止,因而可以克服“视界局限”,而且无需保留部分样本用于交叉验证,所以可以充分利用全部训练集的信息。但后剪枝的计算量代价比预剪枝方法大得多,特别是在大样本集中,不过对于小样本的情况,后剪枝方法还是优于预剪枝方法的。

 

ID3算法

        以信息增益为准则来选择划分属性,选择划分后信息增益最大的属性进行划分,这种算法对属性可取数目较多时有偏好。

 

这里举个例子,比如说有个女生要选相亲对象,相亲对象有收入(income)、身高(hight)、长相(look)、体型(shape)等条件可以考察,那么我们用ID3算法来分析以下她的决策。

 

我们收集了她之前研究过的几十个相亲对象和决策情况,如下表,我们把它保存为文件data01.csv

收入身高长相体型是否见面

一般高帅胖是

高低帅胖是

高低普通瘦是

一般低丑瘦否

低中丑匀称否

低中丑匀称否

低中普通瘦否

一般高普通匀称是

高高帅胖是

高中帅胖是

低中普通匀称否

一般低丑胖否

高低普通胖是

一般高丑瘦否

一般高普通匀称是

一般高普通瘦是

一般中丑胖是

一般中帅匀称是

高高帅胖是

高中帅胖是

低高普通瘦是

高低普通胖是

低低丑胖否

低中丑胖否

高低普通瘦是

低高丑瘦否

一般高帅匀称是

高低普通胖是

低中丑胖否

一般高丑瘦是

然后我们用ID3算法来分析:

  1 from math import log
  2 import operator
  3 import numpy as np
  4 import pandas as pd
  5 from pandas import DataFrame, Series
  6 #构建决策和数字的映射
  7 productDict = {'高':1,'一般':2,'低':3,'中':2, '帅':1, '普通':2, '丑':3, '胖':3, '匀称':2,'瘦':1, '是':1, '否':0}
  8 #导入数据
  9 def Importdata(datafile): 
 10     dataa = pd.read_excel(datafile)  # datafile是excel文件,所以用read_excel,如果是csv文件则用read_csv
 11     #将文本中不可直接使用的文本变量替换成数字
 12     
 13     dataa['income'] = dataa['收入'].map(productDict)  # 将每一列中的数据按照字典规定的转化成数字
 14     dataa['hight'] = dataa['身高'].map(productDict)
 15     dataa['look'] = dataa['长相'].map(productDict)
 16     dataa['shape'] = dataa['体型'].map(productDict)
 17     dataa['is_meet'] = dataa['是否见面'].map(productDict)
 18  
 19     data = dataa.iloc[:,5:].values.tolist()  # 取量化后的几列,去掉文本列
 20     b = dataa.iloc[0:0,5:-1]
 21     labels = b.columns.values.tolist()  # 将标题中的值存入列表中
 22     
 23     return data,labels
 24  
 25 #计算数据的熵(entropy)--原始熵
 26 def dataentropy(data, feat):  
 27     lendata = len(data)  # 数据条数
 28     labelCounts = {}  # 数据中不同类别的条数
 29     for featVec in data:
 30         category = featVec[-1]  # 每行数据的最后一个字(叶子节点)
 31         if category not in labelCounts.keys():
 32             labelCounts[category] = 0 
 33         labelCounts[category] += 1  # 统计有多少个类以及每个类的数量
 34     entropy = 0
 35     for key in labelCounts:
 36         prob = float(labelCounts[key]) / lendata  # 计算单个类的熵值
 37         entropy -= prob * log(prob,2)  # 累加每个类的熵值
 38     
 39     return entropy
 40  
 41 #对数据按某个特征value进行分类
 42 def splitData(data,i,value): 
 43     splitData = []
 44     for featVec in data:
 45         if featVec[i] == value:
 46             rfv = featVec[:i]
 47             rfv.extend(featVec[i+1:])
 48             splitData.append(rfv)
 49     
 50     return splitData
 51  
 52 #选择最优的分类特征
 53 def BestSplit(data):  
 54     numFea = len(data[0]) - 1  # 计算一共有多少个特征,因为最后一列一般是分类结果,所以需要-1
 55     baseEnt = dataentropy(data,-1)   # 定义初始的熵,用于对比分类后信息增益的变化
 56     bestInfo = 0
 57     bestFeat = -1
 58     for i in range(numFea):
 59         featList = [rowdata[i] for rowdata in data]
 60         uniqueVals = set(featList)
 61         newEnt = 0
 62         for value in uniqueVals:
 63             subData = splitData(data,i,value)  # 获取按照特征value分类后的数据
 64             prob = len(subData) / float(len(data))
 65             newEnt += prob * dataentropy(subData,i)  # 按特征分类后计算得到的熵
 66         info = baseEnt - newEnt  # 原始熵与按特征分类后的熵的差值,即信息增益
 67         if (info > bestInfo):   # 若按某特征划分后,若infoGain大于bestInf,则infoGain对应的特征分类区分样本的能力更强,更具有代表性。 
 68             bestInfo = info  # 将infoGain赋值给bestInf,如果出现比infoGain更大的信息增益,说明还有更好地特征分类
 69             bestFeat = i  # 将最大的信息增益对应的特征下标赋给bestFea,返回最佳分类特征
 70     
 71     return bestFeat 
 72  
 73 #按分类后类别数量排序,取数量较大的
 74 def majorityCnt(classList):    
 75     c_count = {}
 76     for i in classList:
 77         if i not in c_count.keys():
 78             c_count[i] = 0
 79         c_count[i] += 1
 80     ClassCount = sorted(c_count.items(),key=operator.itemgetter(1),reverse=True) # 按照统计量降序排序
 81     
 82     return ClassCount[0][0]  # reverse=True表示降序,因此取[0][0],即最大值
 83  
 84 #构建树
 85 def createTree(data,labels):
 86  
 87     classList = [rowdata[-1] for rowdata in data]  # 取每一行的最后一列,分类结果(1/0)
 88     #print(classList)
 89     if classList.count(classList[0]) == len(classList):
 90         return classList[0]
 91     if len(data[0]) == 1:
 92         return majorityCnt(classList)
 93     bestFeat = BestSplit(data)  # 根据信息增益选择最优特征
 94     bestLab = labels[bestFeat]
 95     myTree = {bestLab:{}}  # 分类结果以字典形式保存
 96     del(labels[bestFeat])
 97     featValues = [rowdata[bestFeat] for rowdata in data]
 98     uniqueVals = set(featValues)
 99     for value in uniqueVals:
100         subLabels = labels[:]
101         myTree[bestLab][value] = createTree(splitData(data,bestFeat,value),subLabels)
102     
103     return myTree
104  
105 #主程序
106 datafile = 'data/dateperson/date01.xlsx'  # 文件所在位置
107 data, labels = Importdata(datafile)  # 导入数据
108  
109 jc=createTree(data, labels)  # 输出决策树模型结果
110  
111 print(jc)

执行之后得到如下结果:

1 PS C:\coding\machinelearning>ID3相亲决策实验.py
2 {'income': {1: 1, 2: {'hight': {1: {'look': {1: 1, 2: 1, 3: {'shape': {0: 0, 1: 1}}}}, 2: 1, 3: 0}}, 3: {'hight': {1: {'look': {2: 1, 3: 0}}, 2: 0, 3: 0}}}}
3 PS C:\coding\machinelearning>

从结果来看,小姐姐找相亲对象,首先看收入,收入高的一定见,收入中等的再看身高、长相等。收入低的除非又高又帅,否则免谈。

 

C4.5算法

        选择具有最大增益率的属性作为划分属性,具体做法是先从候选划分属性中找到信息增益高于平均水平的属性,再从中选择增益率最高的作为划分属性。

 

下面再用C4.5算法把上面小姐姐相亲的例子再算一遍

  1 from math import log
  2 import operator
  3 import numpy as np
  4 import pandas as pd
  5 from pandas import DataFrame, Series
  6 productDict = {'高':1,'一般':2,'低':3,'中':2, '帅':1, '普通':2, '丑':3, '胖':3, '匀称':2,'瘦':1, '是':1, '否':0}
  7 #导入数据
  8 def Importdata(datafile): 
  9     dataa = pd.read_excel(datafile)  # datafile是excel文件,所以用read_excel,如果是csv文件则用read_csv
 10     #将文本中不可直接使用的文本变量替换成数字
 11     
 12     dataa['income'] = dataa['收入'].map(productDict)  # 将每一列中的数据按照字典规定的转化成数字
 13     dataa['hight'] = dataa['身高'].map(productDict)
 14     dataa['look'] = dataa['长相'].map(productDict)
 15     dataa['shape'] = dataa['体型'].map(productDict)
 16     dataa['is_meet'] = dataa['是否见面'].map(productDict)
 17  
 18     data = dataa.iloc[:,5:].values.tolist()  # 取量化后的几列,去掉文本列
 19     b = dataa.iloc[0:0,5:-1]
 20     labels = b.columns.values.tolist()  # 将标题中的值存入列表中
 21     
 22     return data,labels
 23  
 24 #计算数据的熵(entropy)--原始熵
 25 def dataentropy(data, feat):  
 26     lendata = len(data)  # 数据条数
 27     labelCounts = {}  # 数据中不同类别的条数
 28     for featVec in data:
 29         category = featVec[-1]  # 每行数据的最后一个字(叶子节点)
 30         if category not in labelCounts.keys():
 31             labelCounts[category] = 0 
 32         labelCounts[category] += 1  # 统计有多少个类以及每个类的数量
 33     entropy = 0
 34     for key in labelCounts:
 35         prob = float(labelCounts[key]) / lendata  # 计算单个类的熵值
 36         entropy -= prob * log(prob,2)  # 累加每个类的熵值
 37     
 38     return entropy
 39  
 40 #对数据按某个特征value进行分类
 41 def splitData(data,i,value): 
 42     splitData = []
 43     for featVec in data:
 44         if featVec[i] == value:
 45             rfv = featVec[:i]
 46             rfv.extend(featVec[i+1:])
 47             splitData.append(rfv)
 48     
 49     return splitData
 50  
 51 #选择最优的分类特征
 52 def BestSplit(data):  
 53     numFea = len(data[0]) - 1  # 计算一共有多少个特征,因为最后一列一般是分类结果,所以需要-1
 54     baseEnt = dataentropy(data, -1)  # 定义初始的熵,用于对比分类后信息增益的变化
 55     bestGainRate = 0
 56     bestFeat = -1
 57     for i in range(numFea):
 58         featList = [rowdata[i] for rowdata in data]
 59         uniqueVals = set(featList)
 60         newEnt = 0
 61         for value in uniqueVals:
 62             subData = splitData(data,i,value)  # 获取按照特征value分类后的数据
 63             prob = len(subData) / float(len(data))
 64             newEnt += prob * dataentropy(subData, i)  # 按特征分类后计算得到的熵
 65         info = baseEnt - newEnt  # 原始熵与按特征分类后的熵的差值,即信息增益
 66         splitonfo = dataentropy(subData,i)  # 分裂信息
 67         if splitonfo == 0:  # 若特征值相同(eg:长相这一特征的值都是帅),即splitonfo和info均为0,则跳过该特征
 68             continue
 69         GainRate = info / splitonfo  # 计算信息增益率
 70         if (GainRate > bestGainRate):   # 若按某特征划分后,若infoGain大于bestInf,则infoGain对应的特征分类区分样本的能力更强,更具有代表性。 
 71             bestGainRate = GainRate  # 将infoGain赋值给bestInf,如果出现比infoGain更大的信息增益,说明还有更好地特征分类
 72             bestFeat = i  # 将最大的信息增益对应的特征下标赋给bestFea,返回最佳分类特征
 73     return bestFeat
 74  
 75  
 76 def majorityCnt(classList):    
 77     c_count = {}
 78     for i in classList:
 79         if i not in c_count.keys():
 80             c_count[i] = 0
 81         c_count[i] += 1
 82     ClassCount = sorted(c_count.items(),key=operator.itemgetter(1),reverse=True)#按照统计量降序排序
 83     
 84     return ClassCount[0][0]#reverse=True表示降序,因此取[0][0],即最大值
 85 #构建树
 86 def createTree(data,labels):
 87     classList = [rowdata[-1] for rowdata in data]  # 取每一行的最后一列,分类结果(1/0)
 88     if classList.count(classList[0]) == len(classList):
 89         return classList[0]
 90     if len(data[0]) == 1:
 91         return majorityCnt(classList)
 92     bestFeat = BestSplit(data)  # 根据信息增益选择最优特征
 93     bestLab = labels[bestFeat]
 94     myTree = {bestLab:{}}  # 分类结果以字典形式保存
 95     del(labels[bestFeat])
 96     featValues = [rowdata[bestFeat] for rowdata in data]
 97     uniqueVals = set(featValues)
 98     for value in uniqueVals:
 99         subLabels = labels[:]
100         myTree[bestLab][value] = createTree(splitData(data,bestFeat,value),subLabels)
101     
102     return myTree
103  
104  
105  
106 #主程序
107 datafile = 'data/dateperson/date01.xlsx'  # 文件所在位置
108 data, labels = Importdata(datafile)  # 导入数据
109 jc=createTree(data, labels)  # 输出决策树模型结果
110  
111 print(jc)

得到结果和上面的算法大致差不多

1 PS C:\coding\machinelearning>C4.5相亲决策实验.py
2 {'income': {1: 1, 2: {'look': {1: 1, 2: 1, 3: {'shape': {1: {'hight': {0: 0, 1: 1}}, 3: {'hight': {0: 0, 1: 1}}}}}}, 3: {'shape': {0: 0, 1: 1}}}}
3 PS C:\coding\machinelearning>

CART算法

选择划分后基尼指数最小的属性最为最优划分属性。

这次我们找了个数据集,Titanic号生还者情况的数据集,来分析下乘客的生还情况

  1 #数据处理的库
  2 from numpy.lib.type_check import real
  3 import pandas as pd
  4 #数据分类
  5 from sklearn.model_selection import train_test_split
  6 #算法库
  7 from sklearn.tree import DecisionTreeClassifier
  8 from sklearn.preprocessing import LabelEncoder
  9 from sklearn.model_selection import GridSearchCV
 10  
 11 #评估用到的库
 12 from sklearn.metrics import make_scorer
 13 from sklearn.metrics import accuracy_score
 14 from sklearn.metrics import f1_score
 15 from sklearn.metrics import recall_score
 16 from sklearn.metrics import precision_score
 17 #预测
 18  
 19 import numpy as np
 20  
 21 #读取数据
 22 data = pd.read_csv('data/titanic/train.csv')
 23 print(data.head())
 24 data.info()
 25 # 计算各特征缺失总数
 26 total = data.isnull().sum().sort_values(ascending=False)
 27 # 计算各特征缺失比例
 28 percent = (data.isnull().sum()/data.isnull().count()).sort_values(ascending = False)
 29 miss_data = pd.concat([total, percent], axis = 1, keys = ['Miss_Total', 'Miss_Percent'])
 30 miss_data.head()
 31 # 缺失值处理。
 32 # 删除‘Cabin’
 33 del data['deck']
 34 # 采用中位数填充缺失值
 35 data['age'] = data['age'].fillna(data['age'].median())
 36 # 众数填充缺失值
 37 data['embark_town'] = data['embark_town'].fillna(data['embark_town'].mode()[0])
 38 # 查看数据情况
 39 data.info()
 40  
 41 # 观察Name特征提取其中的Title称呼
 42 #data['Title'] = data['Name'].str.split(",", expand=True)[1].str.split(".", expand=True)[0]
 43 # 将字符型变量做数值化处理
 44 label = LabelEncoder()
 45 data['sex'] = label.fit_transform(data['sex'])
 46 data['class'] = label.fit_transform(data['class'])
 47 data['alone'] = label.fit_transform(data['alone'])
 48 #data['Embarked'] = data['Embarked'].astype(str)
 49 data['embark_town'] = label.fit_transform(data['embark_town'])
 50 # 考虑到PassengerId和Ticker为随机生成的变量,不作为影响目标变量的信息,因此特征选择时,将其去除
 51 features = ['class', 'age', 'n_siblings_spouses', 'parch', 'fare', 'sex', 'alone', 'embark_town','survived']
 52 data = data[features]
 53 data.head()
 54  
 55 #划分训练集和测试集
 56 X = data[['class', 'age', 'n_siblings_spouses', 'parch', 'fare', 'sex', 'alone', 'embark_town']]
 57 y = data[['survived']]
 58 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=2)#random_state为随机种子,确保每次划分的结果是相同的
 59  
 60 #训练模型
 61 dtc = DecisionTreeClassifier()
 62 dtc.fit(X_train, y_train)
 63 y_predict = dtc.predict(X_test)
 64  
 65  
 66 # 模型评分:准确率,查全率,查准率,F1得分
 67 accuracyScore = accuracy_score(y_test, y_predict)
 68 recallScore = recall_score(y_test, y_predict)
 69 precisionScore = precision_score(y_test, y_predict)
 70 f1Score = f1_score(y_test, y_predict)
 71 print("DecisionTreeClassifier Results")
 72 print("Accuracy      :", accuracyScore)
 73 print("Recall        :", recallScore)
 74 print("Precision     :", precisionScore)
 75 print("F1 Score      :", f1Score)
 76  
 77  
 78 param = {'max_depth': [1, 3, 5, 7]}
 79 # 采用网格搜索进行参数调优
 80 gsearch = GridSearchCV(estimator=dtc, param_grid=param, cv=5, scoring='f1')
 81 gsearch.fit(X=X_train, y=y_train)
 82 print("最优参数:{}".format(gsearch.best_params_))
 83 print("最优模型:{}".format((gsearch.best_estimator_)))
 84 print("模型最高分:{:.3f}".format(gsearch.score(X_test, y_test)))
 85  
 86  
 87  
 88 # 选择最优模型进行预测
 89 dtc = DecisionTreeClassifier(class_weight=None, criterion='gini', max_depth=3,
 90                              max_features=None, max_leaf_nodes=None,
 91                              min_samples_leaf=1, min_samples_split=2,
 92                              min_weight_fraction_leaf=0.0, random_state=None,
 93                              splitter='best')
 94 dtc.fit(X_train, y_train)
 95 y_predict = dtc.predict(X_test[:10])
 96 # 打印预测结果
 97 print('===================预测值=======================')
 98 print(y_predict)
 99 # 打印真实值
100 print('===================真实值=======================')
101 #print(np.array(y_test[:10]).tolist())
102 realz = np.array(y_test[:10]).ravel()
103 print(realz)
104 Accuracy = accuracy_score(realz, y_predict)
105 print('准确率为:{:.2f}%'.format(Accuracy*100))
106  

打印预测结果如下:

 1 PS C:\coding\machinelearning>CART实验(titanic).py
 2    survived     sex   age  n_siblings_spouses  parch     fare  class     deck  embark_town alone
 3 0         0    male  22.0                   1      0   7.2500  Third  unknown  Southampton     n
 4 1         1  female  38.0                   1      0  71.2833  First        C    Cherbourg     n
 5 2         1  female  26.0                   0      0   7.9250  Third  unknown  Southampton     y
 6 3         1  female  35.0                   1      0  53.1000  First        C  Southampton     n
 7 4         0    male  28.0                   0      0   8.4583  Third  unknown   Queenstown     y
 8 <class 'pandas.core.frame.DataFrame'>
 9 RangeIndex: 627 entries, 0 to 626
10 Data columns (total 10 columns):
11  #   Column              Non-Null Count  Dtype  
12 ---  ------              --------------  -----  
13  0   survived            627 non-null    int64  
14  1   sex                 627 non-null    object 
15  2   age                 627 non-null    float64
16  3   n_siblings_spouses  627 non-null    int64  
17  4   parch               627 non-null    int64  
18  5   fare                627 non-null    float64
19  6   class               627 non-null    object 
20  7   deck                627 non-null    object 
21  8   embark_town         627 non-null    object 
22  9   alone               627 non-null    object 
23 dtypes: float64(2), int64(3), object(5)
24 memory usage: 49.1+ KB
25 <class 'pandas.core.frame.DataFrame'>
26 RangeIndex: 627 entries, 0 to 626
27 Data columns (total 9 columns):
28  #   Column              Non-Null Count  Dtype
29 ---  ------              --------------  -----
30  0   survived            627 non-null    int64
31  1   sex                 627 non-null    object
32  2   age                 627 non-null    float64
33  3   n_siblings_spouses  627 non-null    int64
34  4   parch               627 non-null    int64
35  5   fare                627 non-null    float64
36  6   class               627 non-null    object
37  7   embark_town         627 non-null    object
38  8   alone               627 non-null    object
39 dtypes: float64(2), int64(3), object(4)
40 memory usage: 44.2+ KB
41 DecisionTreeClassifier Results
42 Accuracy      : 0.7698412698412699
43 Recall        : 0.7142857142857143
44 Precision     : 0.7
45 F1 Score      : 0.7070707070707072
46 最优参数:{'max_depth': 5}
47 最优模型:DecisionTreeClassifier(max_depth=5)
48 模型最高分:0.731
49 ===================预测值=======================
50 [1 1 0 1 0 0 0 1 0 0]
51 ===================真实值=======================
52 [1 0 0 1 0 0 0 1 0 0]
53 准确率为:90.00%
54 PS C:\coding\machinelearning>

 

这篇关于AI-机器学习-自学笔记(五)决策树算法的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!