何时线性回归,聚类或决策树?
摘要: 机器学习算法介绍那么多?但是,到底如何根据不同的场景,应用选择它们呢?且来听听大牛怎么说!
许多文章简单的定义了决策树,聚类和线性回归,以及它们之间的差异,但是他们往往忽视了在哪里使用这些算法。
决策树,聚类和线性回归算法之间的差异已经在许多文章中得到了阐述(如本文和本文)。但是,这些算法可以使用在什么地方并不是很清楚。通过这篇博文,我解释了在哪里可以使用这些机器学习算法,以及在为你的需求选择特定算法时需要考虑哪些因素。
1.线性回归用例:
线性回归的一些用途:
1.产品的销售,定价和风险参数。
2.产生对消费者行为,盈利能力和其他商业因素的见解。
3.评估趋势,做出估计和预测。
4.确定产品的营销效果,定价和促销。
5.评估金融服务和保险的风险。
6.从汽车测试数据研究发动机的性能。
7.计算生物系统参数之间的因果关系。
8.进行市场调查研究和客户调查结果分析。
9.天文数据分析。
10.随着房屋面积的增加预测房价。
线性回归经常用于一些案例包括股票交易,视频游戏,体育博彩和飞行时间预测。
2.决策树用例:
决策树的一些用途:
1.建立客户服务知识管理平台,提高首次呼叫解决率,平均处理时间和客户满意率。
2.在财务方面,预测未来的财务并给出这些结果出现的概率。
3.二项期权定价预测与实物期权分析。
4.客户愿意在给定的环境下购买给定的产品,即离线和在线两种。
5.产品规划,例如,**产品公司(Gerber Products,Inc.)使用决策树来决定是否继续为制造玩具规划PVC。
6.一般商业决策。
7.贷款批准。
3.集群用例
聚类算法的一些用途:
1.客户细分。
2.利用物理尺度对物种进行分类。
3.产品分类。
4.电影推荐。
5.在特定区域放置蜂窝塔的位置。
6.考虑到一个地区最容易发生事故的地区的因素,设置紧急病房。
7.属性数量的影响。
4.如何选择合适的机器学习算法?
现在你已经了解了这些机器学习算法的具体用例,接下来让我们讨论如何根据需要选择完美的机器学习算法。
4.1线性回归选择标准:
首先,让我们来谈谈分类和回归功能、错误率、数据兼容性、数据质量、计算复杂性、可理解性和透明度等这些因素对算法的影响。
分类和回归功能:
回归模型拥有预测了一个连续变量,例如一天的销售量或预测城市的温度。
在建立分类功能时,他们依赖多项式(如直线)来拟合数据集,这是一个真正的挑战。让我们想象一下,你想添加另一个数据点,但为了适应它,你需要改变你现有的模型(也可能是阈值本身)。因此,线性回归对于分类模型并不好。
错误率:
在减少错误率方面,线性回归比其他算法弱。
数据兼容性:
线性回归依赖于连续数据来建立回归功能。
数据质量:
每个缺失的值将删除一个可以优化回归的数据点。在简单线性回归中,异常值可能会显着破坏结果。
计算复杂性:
与决策树和聚类算法相比,线性回归通常在计算上不复杂。复杂的N个训练样例和X的顺序通常设有落在或者是O(X2),O(XN),或O-(C3)。
易于理解和透明:
它们很容易理解和透明的性质。它们可以用简单的数学符号表示给任何人,而且可以很容易被理解。
4.2决策树选择标准:
决策树是将对象分类的一种方法。他们是一种监督学习的形式。
聚类算法可以进一步分类为“急切学习者”,因为他们首先在训练数据集上建立分类模型,然后实际分类测试数据集。这种决策树的本质就是要学习并渴望对未见的观察结果进行分类,这就是为什么他们被称为“渴望学习者”的原因。
分类和回归能力:
决策树与另外两种类型的任务兼容——回归以及分类。
计算量:
由于决策树具有内存分类模型,因此它们不会带来高昂的计算成本,因为它们不需要频繁的数据库查找。
易于理解和透明:
它们被银行广泛用于贷款审批,仅仅是因为其基于规则的决策极其透明。
数据质量:
决策树能够处理高度错误和缺失值的数据集。
增量学习:
随着决策树分批工作,他们一次对一组训练观察进行建模。因此,他们不适合增量学习。
错误率:
它们的错误率相对较高,但比线性回归要好。
数据兼容性:
决策树可以处理具有数字和标称输入属性的数据。
属性数量的影响:
如果存在复杂的、人为的无形因素,这些算法往往会产生错误的结果。例如,在客户细分等情况下,很难想象决策树会返回准确的细分。
4.3聚类算法选择标准:
聚类算法通常用于找出主题在多个不同变量上的相似程度。他们是无监督学习的一种形式。
然而,聚类算法不是“急切的学习者”,而是直接从训练实例中学习。他们只有在得到测试观察分类后才开始处理数据。
分类和回归功能:
聚类算法不能用于回归任务。
数据处理能力:
聚类可以处理大多数类型的数据集并忽略缺失的值。
数据集质量:
它们与连续和阶乘数据值一起工作良好。
易于理解和透明:
与决策树不同,聚类算法通常不会带来相同水平的理解和透明度。通常,他们需要为决策者提供大量的实施级解释。
计算费用:
聚类算法通常需要频繁的数据库查找。因此,它们通常可能在计算上是昂贵的。
增量学习:
聚类自然地支持增量学习,并且是线性回归和决策树的首选。
错误率:
聚类测试错误率更接近于贝叶斯分类器。
属性数量的影响:
凭借其处理复杂任意边界的能力,与决策树不同,它们可以处理多个属性和复杂的交互。
我希望上述讲解可以帮助你开始使用这些算法!
本文由@阿里云云栖社区组织翻译。
文章原标题《decision-trees-vs-clustering-algorithms-vs-linear》
作者:Parikshit Joshi
译者:虎说八道。