大数据两大核心技术 Hadoop和spark哪个比较好 其异同点有哪些

Hadoop和Apache Spark两者都是大数据框架,但是各自存在的目的不尽相同。都说分享是程序员的一大优良传统,很多程序员都喜欢写一些技术博客,跟网友分享自己的技术,千锋大数据李老师就是一个活生生的例子,小编今天就向李老师请教了这样一个问题:Hadoop和spark两者的异同点是什么?

然后老师就开始了他的讲课模式,巴拉巴拉,说了一大堆,小编真的有认真听讲,还记下了笔记:

大数据两大核心技术 Hadoop和spark哪个比较好 其异同点有哪些

Hadoop实质上更多是一个分布式数据基础设施: 它将巨大的数据集分派到一个由普通计算机组成的集群中的多个节点进行存储,意味着您不需要购买和维护昂贵的服务器硬件。同时,Hadoop还会索引和跟踪这些数据,让大数据处理和分析效率达到前所未有的高度。

Spark是一个基于内存计算的开源的集群计算系统,目的是让数据分析更加迅速, Spark 是一种与 Hadoop 相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同之处使 Spark 在某些工作负载方面表现得更加优越,换句话说,Spark 启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。

Spark 是在 Scala 语言中实现的,它将 Scala 用作其应用程序框架。与 Hadoop 不同,Spark 和 Scala 能够紧密集成,其中的 Scala 可以像操作本地集合对象一样轻松地操作分布式数据集。

尽管创建 Spark 是为了支持分布式数据集上的迭代作业,但是实际上它是对 Hadoop 的补充,可以在 Hadoop 文件系统中并行运行。通过名为Mesos的第三方集群框架可以支持此行为。

虽然 Spark 与 Hadoop 有相似之处,但它提供了具有有用差异的一个新的集群计算框架。首先,Spark 是为集群计算中的特定类型的工作负载而设计,即那些在并行操作之间重用工作数据集(比如机器学习算法)的工作负载。为了优化这些类型的工作负载,Spark 引进了内存集群计算的概念,可在内存集群计算中将数据集缓存在内存中,以缩短访问延迟。

大数据技术真的是博大精深,想要学习大数据,真的是要下一大番功夫的,幸运的是,自己一直都有在学习,一直都有千锋老师的专业指导!

相关推荐