2018最新版本的spark面试题及答案

Spark是一个围绕速度、易用性和复杂分析构建的大数据处理框架,Spark提供了一个全面、统一的框架用于管理各种有着不同性质(文本数据、图表数据等)的数据集和数据源(批量数据或实时的流数据)的大数据处理的需求。成为大数据核心技术之一,自然也成为了众多企业面试的核心专业问题,千锋小编针对spark整理了一套相关的面试题,正在学习大数据和正在面试大数据岗位的小伙伴可以参考使用了!

2018最新版本的spark面试题及答案

1、SDD,DAG,Stage怎么理解?

2、宽依赖 窄依赖怎么理解?

3、Stage是基于什么原理分割task的?

4、血统的概念

5、任务的概念

6、容错方法

7、粗粒度和细粒度

8、Spark优越性

9、Spark为什么快

10、Transformation和action是什么?区别?举几个常用方法

11、SDD怎么理解

12、spark 作业提交流程是怎么样的,client和 cluster 有什么区别,各有什么作用

13、spark on yarn 作业执行流程,yarn-client 和 yarn cluster 有什么区别

14、spark streamning 工作流程是怎么样的,和 storm 比有什么区别

15、spark sql 你使用过没有,在哪个项目里面使用的

16、spark 机器学习和 spark 图计算接触过没,,能举例说明你用它做过什么吗?

17、spark sdd 是怎么容错的,基本原理是什么?

以上就是千锋就业讲师整理的大数据技术之spark的面试参考题(相信对于学过大数据技术的同学应该不是难题吧,当然了有需要解析的也可以给小编留言滴),也是讲师在讲课过程中反复给大家强调的重点,学习大数据并不是一朝一夕的事情,而是要付出很多的时间和精力。不是一套大数据面试题就能搞定你面试官的,技术岗位就需要一定的真材实料才能胜任,尤其是对于大数据技术人才的要求更是如此。

想想一个企业花重金聘请的大数据技术人才,如果技术不扎实或者没有一定的项目经验基础,怎么可能将这样的核心岗位交给你呢?!透过面试题,看自己的实力是否能够撑起大数据工程师的岗位!也让自己明白学习大数据的重点应该放在哪些方面。

相关推荐