Hadoop 相关节点说明

Hadoop框架中最核心的设计就是:MapReduce和HDFS

MapReduce的思想是由Google的一篇论文所提及而被广为流传的,简单的一句话解释MapReduce就是“任务的分解与结果的汇总”。

HDFS是Hadoop分布式文件系统(Hadoop Distributed File System)的缩写,为分布式计算存储提供了底层支持。

NameNode:负责记录文件是如何分割数据块,以及这些分别被存储的。

DataNode:负责把HDFS数据块读写到本地文件系统中。

SecondaryNode:次要的nameNode,它与nameNode通信,保存最新的nameNode快照。

当nameNode宕机能及时当作备用nameNode使用。

Jobtracker:主要负责任务的接受,初始化,调度以及对TaskTracker的监控。

TaskTracker:具体的任务内容。

HDFS -写文件:

nameNode - client(响应请求),响应nameNode的数据块信息.

client - dataNode(存取数据块,并且进行备份).

HDFS - 读文件:

client - nameNode(读请求).

nameNode - client(响应请求),返回nameNode数据块的信息.

client - dataNode(读数据块)

HDFS设计特点:

1.块存放:默认分三块保存。

2.心跳监控dataNode状态,如发现问题及时备份,保证数据安全.

3.数据复制dataNode失败,需要平衡节点的利用率。采用threshold配置.

4.数据交验采用crc32.

5.nameNode单点失败任务处理信息保存在本地系统文件.

相关推荐