Hadoop的作业提交流程(内附全套视频教程)
大数据时代,无论你深处哪个行业,做着哪份工作,多多少少都会接触到一些数据信息,数据决策已经成为很多公司的发展战略。掌握大数据技术,变得越来越重要。
今天给大家分享的技术知识是:Hadoop的作业提交流程。
hadoop任务的提交常用的两种,一种是测试常用的IDE远程提交,另一种就是生产上用的客户端命令行提交。
通用的任务程序提交步骤为:
1.客户端向resourceManager发送job请求
2.resourceManager返回存储路径,jobId给客户端
3.客户端创建路径把jobId,分片信息,配置文件信息,jar文件拷贝到返回的存储路径上
4.客户端向resourceManager报告提交完成
5.resourceManager在nodeManager上启动一个容器(container),在container中执行mrappmaster进程(主管mr任务执行)
6.mrappmaster取得分片信息,任务的相关配置,计算job所需资源
7.mrappmaster向resourceManager申请资源
8.resourceManager准备资源,mrappmaster启动container运行mapTask
9.maptask进程启动之后,根据给定的数据切片范围进行数据处理,处理流程:
1)利用客户指定的inputformat来获取recordReader读取数据,形成kv键值对。
2)将kv传递给客户定义的mapper类的map方法,做逻辑运算,并将map方法的输出kv收集到缓存。
10.mrappmaster监控所有的maptask进程完成之后,会根据用户指定的参数来启动相应的reduceTask进程,并告知reduceTask需要处理的数据范围
11.reducetask启动之后,根据appmaster告知的待处理的数据位置,从若干的maptask所在的机器上获取若干的maptask输出结果,并在本地进行一个归并排序,然后,再按照相同的key的kv为一组,调用客户自定义的reduce方法,并收集输出结果kv,然后按照用户指定的outputFormat将结果存储到外部设备。
12.所有任务定期向mrappmaster报告任务进度,所有任务完成后,mrappmaster报告resourceManager释放资源
如果你想要成为高端实用的技术精英,如果你想要成为就业实力派,那就不要错过我。更多技术彩蛋尽在码农视界,助力专业的你斩获高薪,助力业余的你更上一层楼!
彩蛋福利:
Hadoop学习视频教程
领取方式:评论转发后,私信我:Hadoop