第十次 11.分类与监督学习,朴素贝叶斯分类算法
1.理解分类与监督学习、聚类与无监督学习。
简述分类与聚类的联系与区别。
区别:
分类的目的是为确定一个点的类别,具体有哪些类别是已知的,常用算法是KNN,是一种有监督学习。
聚类的目的是将一系列点分为若干类,事先是没有类别的,常用算法是K-Means,是一种无监督学习。
联系:
两种的实现都包含这样一个过程:对于想要分析的目标点,都会在数据集中寻找离他最近的点,即两者都用到了NN算法。
简述什么是监督学习与无监督学习。
监督学习:是人们常说的分类,通过已有的训练样本(即已知数据以及其对应的输出)去训练得到一个最优模型(这个模型属于某个函数的集合,最优则表示在某个评价准则下是最佳的),再利用这个模型将所有的输入映射为相应的输出,对输出进行简单的判断从而实现分类的目的,也就具有了对未知数据进行分类的能力。
无监督学习:是另一种研究的比较多的学习方法,它与监督学习的不同之处,在于我们事先没有任何训练样本,而需要直接对数据进行建模。
2.朴素贝叶斯分类算法 实例
利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。
有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数
目标分类变量疾病:
–心梗
–不稳定性心绞痛
新的实例:–(性别=‘男’,年龄<70, KILLP=‘I‘,饮酒=‘是’,吸烟≈‘是”,住院天数<7)
最可能是哪个疾病?
上传手工演算过程。
性别 | 年龄 | KILLP | 饮酒 | 吸烟 | 住院天数 | 疾病 | |
1 | 男 | >80 | 1 | 是 | 是 | 7-14 | 心梗 |
2 | 女 | 70-80 | 2 | 否 | 是 | <7 | 心梗 |
3 | 女 | 70-81 | 1 | 否 | 否 | <7 | 不稳定性心绞痛 |
4 | 女 | <70 | 1 | 否 | 是 | >14 | 心梗 |
5 | 男 | 70-80 | 2 | 是 | 是 | 7-14 | 心梗 |
6 | 女 | >80 | 2 | 否 | 否 | 7-14 | 心梗 |
7 | 男 | 70-80 | 1 | 否 | 否 | 7-14 | 心梗 |
8 | 女 | 70-80 | 2 | 否 | 否 | 7-14 | 心梗 |
9 | 女 | 70-80 | 1 | 否 | 否 | <7 | 心梗 |
10 | 男 | <70 | 1 | 否 | 否 | 7-14 | 心梗 |
11 | 女 | >80 | 3 | 否 | 是 | <7 | 心梗 |
12 | 女 | 70-80 | 1 | 否 | 是 | 7-14 | 心梗 |
13 | 女 | >80 | 3 | 否 | 是 | 7-14 | 不稳定性心绞痛 |
14 | 男 | 70-80 | 3 | 是 | 是 | >14 | 不稳定性心绞痛 |
15 | 女 | <70 | 3 | 否 | 否 | <7 | 心梗 |
16 | 男 | 70-80 | 1 | 否 | 否 | >14 | 心梗 |
17 | 男 | <70 | 1 | 是 | 是 | 7-14 | 心梗 |
18 | 女 | 70-80 | 1 | 否 | 否 | >14 | 心梗 |
19 | 男 | 70-80 | 2 | 否 | 否 | 7-14 | 心梗 |
20 | 女 | <70 | 3 | 否 | 否 | <7 | 不稳定性心绞痛 |
计算过程:
3.使用朴素贝叶斯模型对iris数据集进行花分类。
尝试使用3种不同类型的朴素贝叶斯:
- 高斯分布型
- 多项式型
- 伯努利型
并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证。
from sklearn.datasets import load_iris # 导入数据集 from sklearn.naive_bayes import GaussianNB, MultinomialNB, BernoulliNB # 导入3种不同类型的朴素贝叶斯API from sklearn.model_selection import cross_val_score # 交叉验证 # 引入数据集 iris = load_iris() # 分割数据集 x = iris[‘data‘] y = iris[‘target‘] # 高斯分布型 GNB_model = GaussianNB() # 构建模型 GNB_model.fit(x, y) # 训练模型 GNB_pre = GNB_model.predict(x) # 预测模型 print("高斯分布型的朴素贝叶斯:") print("模型准确率:", sum(GNB_pre == y)/len(x)) # 进行交叉验证 GNB_score = cross_val_score(GNB_model, x, y, cv=10) print("交叉验证后模型的平均精度:%.2f\n" % GNB_score.mean()) # 多项式型 MNB_model = MultinomialNB() # 构建模型 MNB_model.fit(x, y) # 训练模型 MNB_pre = MNB_model.predict(x) # 预测模型 print("多项式型的朴素贝叶斯:") print("模型准确率:", sum(MNB_pre == y)/len(x)) # 进行交叉验证 MNB_score = cross_val_score(MNB_model, x, y, cv=10) print("交叉验证后模型的平均精度:%.2f\n" % MNB_score.mean()) # 伯努利型 BNB_model = BernoulliNB() # 构建模型 BNB_model.fit(x, y) # 训练模型 BNB_pre = BNB_model.predict(x) # 预测模型 print("伯努利型的朴素贝叶斯:") print("模型准确率:", sum(BNB_pre == y)/len(x)) # 进行交叉验证 BNB_score = cross_val_score(BNB_model, x, y, cv=10) print("交叉验证后模型的平均精度:%.2f\n" % BNB_score.mean())
实验截图: