11.分类与监督学习,朴素贝叶斯分类算法
1.理解分类与监督学习、聚类与无监督学习。
简述分类与聚类的联系与区别。
简述什么是监督学习与无监督学习。
分类的目的是 为了确定一个点的类别,具体有哪些类别是已知的,而聚类的目的是将一系列的点分成若干类,事先是没有类别的。
他们的联系:两者都是要从数据集中寻找到离目标点最近的点(数据)。
监督学习:从给定的训练数据集中学习出一个函数,当新的数据到来时,可以根据这个函数预测结果。监督学习就是最常见的分类问题,通过已有的训练样本,去训练得到一个最优模型,再利用这个模型将所有的输入映射为相应的输出,对输出进行简单的判断从而实现分类的目的。也就具有了对未知数据分类的能力。监督学习的目标往往是让计算机去学习我们已经创建好的分类系统。
无监督学习:输入数据没有被标记,也没有确定的结果。样本数据类别未知,需要根据样本间的相似性对样本集进行分类,试图使类内差距最小化,类间差距最大化。通俗点将就是实际应用中,不少情况下无法预先知道样本的标签,也就是说没有训练样本对应的类别,因而只能从原先没有样本标签的样本集开始学习分类器设计。
2.朴素贝叶斯分类算法 实例
利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。
有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数
目标分类变量疾病:
–心梗
–不稳定性心绞痛
新的实例:–(性别=‘男’,年龄<70, KILLP=‘I‘,饮酒=‘是’,吸烟≈‘是”,住院天数<7)
最可能是哪个疾病?
上传手工演算过程。
性别 | 年龄 | KILLP | 饮酒 | 吸烟 | 住院天数 | 疾病 | |
1 | 男 | >80 | 1 | 是 | 是 | 7-14 | 心梗 |
2 | 女 | 70-80 | 2 | 否 | 是 | <7 | 心梗 |
3 | 女 | 70-81 | 1 | 否 | 否 | <7 | 不稳定性心绞痛 |
4 | 女 | <70 | 1 | 否 | 是 | >14 | 心梗 |
5 | 男 | 70-80 | 2 | 是 | 是 | 7-14 | 心梗 |
6 | 女 | >80 | 2 | 否 | 否 | 7-14 | 心梗 |
7 | 男 | 70-80 | 1 | 否 | 否 | 7-14 | 心梗 |
8 | 女 | 70-80 | 2 | 否 | 否 | 7-14 | 心梗 |
9 | 女 | 70-80 | 1 | 否 | 否 | <7 | 心梗 |
10 | 男 | <70 | 1 | 否 | 否 | 7-14 | 心梗 |
11 | 女 | >80 | 3 | 否 | 是 | <7 | 心梗 |
12 | 女 | 70-80 | 1 | 否 | 是 | 7-14 | 心梗 |
13 | 女 | >80 | 3 | 否 | 是 | 7-14 | 不稳定性心绞痛 |
14 | 男 | 70-80 | 3 | 是 | 是 | >14 | 不稳定性心绞痛 |
15 | 女 | <70 | 3 | 否 | 否 | <7 | 心梗 |
16 | 男 | 70-80 | 1 | 否 | 否 | >14 | 心梗 |
17 | 男 | <70 | 1 | 是 | 是 | 7-14 | 心梗 |
18 | 女 | 70-80 | 1 | 否 | 否 | >14 | 心梗 |
19 | 男 | 70-80 | 2 | 否 | 否 | 7-14 | 心梗 |
20 | 女 | <70 | 3 | 否 | 否 | <7 | 不稳定性心绞痛 |
3.使用朴素贝叶斯模型对iris数据集进行花分类。
尝试使用3种不同类型的朴素贝叶斯:
- 高斯分布型
- 多项式型
- 伯努利型
并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证。
from sklearn.datasets import load_iris from sklearn.naive_bayes import GaussianNB from sklearn.naive_bayes import MultinomialNB from sklearn.naive_bayes import BernoulliNB from sklearn.model_selection import cross_val_score iris = load_iris() x = iris[‘data‘] y = iris[‘target‘] # 高斯分布型 gnb = GaussianNB() #建立模型 gnb.fit(x , y) #模型训练 gnb_pre = gnb.predict(x) #分类预测 gnb_scores =cross_val_score(gnb, x, y, cv=10) #进行交叉验证 print("交叉验证后的精度:",gnb_scores.mean()) # 多项式型 mnb = MultinomialNB() #建立模型 mnb.fit(x , y) #模型训练 mnb_pre = mnb.predict(x) #分类预测 mnb_scores =cross_val_score(mnb, x, y, cv=10) #进行交叉验证 print("交叉验证后的精度:",mnb_scores.mean()) # 伯努利型 bnb = BernoulliNB() #建立模型 bnb.fit(x , y) #模型训练 bnb_pre = bnb.predict(x) #分类预测 bnb_scores =cross_val_score(bnb, x, y, cv=10) #进行交叉验证 print("交叉验证后的精度:",bnb_scores.mean())