Spark
1、什么是Spark
Spark是一种统一、快速、通用、可扩展的分布式大数据分析引擎。分布式体现在Spark一般情况是以集群模式存在,架构为Master/Slaver(主从结构)。大数据分析引擎体现在Spark能够分析数据,但是没有存储。一般线上的spark数据来源 (HDFS, Hive、Kafka、Flume、日志文件、关系型数据库、NoSQL数据库)。Spark数据出口(HDFS、Hive、Kafka、Redise、关系型数据库、NoSQL数据库)。
Spark是基于内存计算的大数据并行计算框架,Spark基于内存计算,提高了在大数据环境下数据处理的实时性,同时保证了高容错性和高可伸缩性,允许用户将Spark部署在大量廉价硬件之上,形成集群。
目前,Spark生态系统已经发展成为一个包含多个子项目的集合,其中包含SparkSQL、Spark Streaming、GraphX、MLlib等子项目。
2、Spark的特点
1、统一:Spark能够适应多种计算场景(离线计算、实时计算、机器学习、图计算、AI应用)。一般公司在进行技术选型过程,首选Spark。
2、快速:Spark在使用过程中,会读取HDFS上数据,并且会将HDFS中数据驻留在内存当中,将数据进行缓存、在后续数据迭代操作过程能够重用内存中的数。在逻辑回归(算法)处理中,Spark的速度要比Hadoop 理论上快100倍。与Hadoop的MapReduce相比,Spark基于内存的运算要快100倍以上,基于硬盘的运算也要快10倍以上。Spark实现了高效的DAG执行引擎,可以通过基于内存来高效处理数据流。
此外,Spark还具有一站式解决方案:
五大模块:
1、SparkCore (处理离线数据)
2、SparkSQL (主要用来做多维数据分析、以及交互式查询)
3、SparkStreaming (实时数据处理程序)
4、Spark MLlib (机器学习 包含非常多算法,相当于Spark提供的一个算法库)
5、Spark Graphx (图计算处理模块)
Spark提供了统一的解决方案。Spark可以用于批处理、交互式查询(Spark SQL)、实时流处理(Spark Streaming)、机器学习(Spark MLlib)和图计算(GraphX)。这些不同类型的处理都可以在同一个应用中无缝使用。
3、通用:Spark支持多种语言(Java、Scala、Python、R、SQL)。Spark支持Java、Python和Scala的API,还支持超过80种高级算法,使用户可以快速构建不同的应用,而且Spark支持交互式的Python和Scala的shell,可以非常方便地在这些shell中使用Spark集群来验证解决问题的方法。
4、可扩展:Spark能够兼容 (hadoop、hive、hbase、yarn、kafka、flume、redise、关系型数据等),Spark可以非常方便地与其他的开源产品进行融合。比如,Spark可以使用Hadoop的YARN和Apache Mesos作为它的资源管理和调度器,并且可以处理所有Hadoop支持的数据,包括HDFS、HBase和Cassandra等。这对于已经部署Hadoop集群的用户特别重要,因为不需要做任何数据迁移就可以使用Spark的强大处理能力。Spark也可以不依赖于第三方的资源管理和调度器,它实现了Standalone作为其内置的资源管理和调度框架,这样进一步降低了Spark的使用门槛,使得所有人都可以非常容易地部署和使用Spark。此外,Spark还提供了在EC2上部署Standalone的Spark集群的工具。
3、为什么要学习Spark
Spark是一个开源的类似于Hadoop MapReduce的通用的并行计算框架。Spark基于map、reduce算法实现的分布式计算,拥有Hadoop MapReduce所具有的优点,但不同于MapReduce的是Spark中的job中间输出和结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的map、reduce的算法。
Spark是MapReduce的替代方案,而且兼容HDFS、Hive,可融入Hadoop的生态系统以弥补MapReduce的不足。
4、Spark的应用场景
用户画像 (用户数据画像)
金融风险管控系统 (对实时性要求比较,起码毫秒级)
精细化运行系统 (CMS系统 、BI系统)
精准广告推荐系统(Spark机器学习,一般在广告或者电商公司应用)
5、Spark应用程序的运行模式
Spark应用程序想要运行需要资源(CPU和内存网络资源),Spark支持多种获取资源的方式。
Spark根据获取资源方式的不同,就具备不同的运行模式。
不同的运行模式:
local[N] :通过本机启动线程的方式,来模拟Spark的并行计算。N可以是具体的数字 ,N可以是* :*代表的是机器的cpu核数。
standalone:标准模式,以Spark集群模式提交应用程序。standalone模式 是向Spark的master进程去获取资源。
yarn:Spark以集群模式提交应用程序,向yarn申请资源(ResourceManager进程申请资源)。线上运行都是以这种模式。
高可用模式提交任务:在高可用模式下,因为涉及到多个Master,所以对于应用程序的提交就有了一点变化,因为应用程序需要知道当前的 Master的IP地址和端口。这种HA方案处理这种情况很简单,只需要在SparkContext指向一个Master列表就可以了。
如Spark://host1:port1,host2:port2,host3:port3,应用程序会轮询列表,找到活着的Master。
具体的细节,这里就不便详细论述了,望见谅!
6、Spark应用程序的开发
Spark-shell开发
Spark-shell初始化操作
Spark context Web UI:Spark Job任务的管理界面
Spark context:初始化SparkContext对象名称sc(SparkContext对象是Spark应用程序的入口对象)
master = local[*]:默认情况下Spark-shell 向本地机器获取资源
app id = local-1557469470546,每个Spark应用程序都会产生一个appid
Spark session:一次会话对象,可以使用Sparksession调用SparkSQL
- 基于Spark-shell的wordcount操作
- Spark-shell以standalone模式启动
只是一些基本的流程步骤,具体的细节还是需要用很多的时间进行学习的,要加倍努力哦!
7、Spark的重要角色
Spark是基于内存计算的大数据并行计算框架。因为其基于内存计算,比Hadoop中MapReduce计算框架具有更高的实时性,同时也保证了高效容错性和可伸缩性。
Spark架构使用了分布式计算中master-slave模型,master是集群中含有master进程的节点,slave是集群中含有worker进程的节点。
Driver Program:运行main函数并且新建SparkContext的程序。
Application:基于Spark的应用程序,包含了driver程序和集群上的executor。
Cluster Manager:指的是在集群上获取资源的外部服务。目前有三种主流类型:
- 1、Standalone:Spark原生的资源管理,由Master负责资源的分配Standalone: spark原生的资源管理,由Master负责资源的分配。
- 2、Apache Mesos:与hadoop MR兼容性良好的一种资源调度框架。
- 3、Hadoop Yarn:主要是指Yarn中的ResourceManager。
Worker Node: 集群中任何可以运行Application代码的节点,在Standalone模式中指的是通过slaves文件配置的Worker节点,在Spark on Yarn模式下就是NodeManager节点。
Executor:是在一个worker node上为某应用启动的?个进程,该进程负责运行任务,并且负责将数据存在内存或者磁盘上。每个应用都有各自独立的executor。
Task:被送到某个executor上的工作单元。
8、Spark的计算模型RDD
1、什么是RDD
RDD叫做弹性分布式数据集,是Spark中最基本的数据抽象,它代表一个不可变、可分区、里面的元素可并行计算的集合。
2、弹性分布式数据集
1、弹性:
存储的弹性:RDD的数据可以在内存和磁盘之间进行自由切换。
可靠性的弹性:RDD的数据在丢失数据的时候能够自动恢复。RDD在计算过程中会出现失败的情况,失败以后会进行一定次数的重试(4次)。
并行度的弹性:RDD的数据分区可以改变,进而增加并行计算的粒度。
2、分布式:
RDD的数据是分布存储的,也就是Spark集群中每个节点上只存储了RDD的部分数据,计算时同样也是分布式并行计算的。
3、数据集:
RDD是一个数据容器,用来组织管理数据的,跟Array和List类似,并且都能够进行map、flatMap、filter等。
3、RDD的特点
1、分区列表:Spark RDD是被分区的,RDD是一个由多个partition(某个节点里的某一片连续的数据)组成的的列表,对于RDD来说,每个分片都会被一个计算任务处理,并决定并行计算的粒度。
2、计算函数:RDD逻辑上是分区的,每个分区的数据是抽象存在的,计算的时候会通过一个compute函数得到每个分区的数据。如果RDD是通过已有的文件系统构建,则compute函数是读取指定文件系统中的数据,如果RDD是通过其他RDD转换而来,则compute函数是执行转换逻辑将其他RDD的数据进行转换。
3、分区器:当前Spark中实现了两种类型的分片函数,一个是基于哈希的HashPartitioner,另外一个基于范围的RangePartitioner。Partitioner函数不但决定了RDD本身的分片数量,也决定了parent RDD Shuffle输出时的分片数量。
4、依赖列表:RDD是只读的,要想改变RDD中的数据,只能在现有的RDD基础上创建新的RDD。 由一个RDD转换到另一个RDD,可以通过丰富的操作算子实现,不再像MapReduce那样只能写map和reduce。RDD之间存在依赖,RDD的执行是按照血缘关系延时计算的。如果血缘关系较长,可以通过持久化RDD来切断血缘关系。RDD的操作算子包括两类,一类叫做transformations,它是用来将RDD进行转化,构建RDD的血缘关系;另一类叫做actions,它是用来触发RDD的计算,得到RDD的相关计算结果或者将RDD保存的文件系统中。RDD通过操作算子进行转换,转换得到的新RDD包含了从其他RDD衍生所必需的信息,RDD之间维护着这种血缘关系,也称之为依赖。依赖包括两种,一种是窄依赖,RDD之间分区是一一对应的,另一种是宽依赖,下游RDD的每个分区与上游RDD的每个分区都有关,是多对多的关系。
5、最优位置:一个列表,存取每个Partition的优先位置。对于一个HDFS文件来说,这个列表保存的就是每个Partition所在的块的位置。Spark在进行任务调度的时候,会尽可能地将计算任务分配到其所要处理数据块的存储位置。
4、RDD的弹性
1、数据调度弹性
2、数据分片的高度弹性
3、基于血统的高效容错机制
4、自动进行内存和磁盘数据存储的切换
5、Checkpoint和Persist可主动或被动触发
6、Task如果失败会自动进行特定次数的重试
7、Stage如果失败会自动进行特定次数的重试
5、RDD的构建方式
1、根据数据集合构建RDD
2、根据RDD创建新的RDD 需要经过算子操作
3、根据外部文件(可以是本地文件也可是HDFS上文件)
6、RDD的依赖关系
RDD和它依赖的父RDD的关系有两种不同的类型,即窄依赖和宽依赖。
RDD的依赖类型
窄依赖:父RDD中一个partition最多被子RDD中的一个partition所依赖,这种依赖关系就是窄依赖
窄依赖算子:map 、filter 、union 、flatMap等
宽依赖:父RDD中一个partition被子RDD中的多个partition所依赖,这种依赖关系就是宽依赖
宽依赖算子:groupByKey、reduceByKey。凡是By基本上都是宽依赖
另一种理解方式可以为:
一对一或者多对一:窄依赖
一对多或者多对多:宽依赖
7、RDD的算子操作
转换算子
Action算子
8、RDD的缓存机制
Spark速度非常快的原因之一,就是在不同操作中可以在内存或者磁盘中缓存数据集。当持久化某个RDD后,每一个节点都将把计算分区结果保存在内存中,对此RDD或衍生出的RDD进行的其他动作中重用。这使得后续的动作变得更加迅速。RDD相关的持久化和缓存,是Spark最重要的特征之一。可以说,缓存是Spark构建迭代式算法和快速交互式查询的关键。
9、RDD的血统机制
RDD只支持粗粒度转换,即只记录单个块上执行的单个操作。将创建RDD的一系列Lineage(即血统)记录下来,以便恢复丢失的分区。RDD的Lineage会记录RDD的元数据信息和转换行为,当该RDD的部分分区数据丢失时,它可以根据这些信息来重新运算和恢复丢失的数据分区。
RDD与RDD之间存在依赖关系,依赖关系都是通过转换算子构建的。Spark应用程序会通过Action算子触发Job操作,Job在运行过程中 是从后往前回溯的,回溯的时候就是根据RDD的依赖关系。这样就构建了RDD的血统机制。有了依赖链条的存在,当RDD中数据丢失的时候,会根据血统机制进行自动恢复数据。
窄依赖:
父RDD中一个partition最多被子RDD中一个partition所依赖,所以当子RDD中一个parition数据丢失时会重算其相应的父RDD中的数据,不需要对整个RDD进行数据恢复。
宽依赖:
父RDD中一个partition被子RDD中多个partition所依赖的, 所以如果子RDD中的一个partition数据丢失,那么它会重算其所依赖的所有父RDD的partition。