Hadoop Hdfs配置过程全程报道
在学习Hadoop的过程中,你可能会遇到Hadoop Hdfs配置问题,本节就接着上节和大家继续分享一下Hadoop Hdfs配置方法,相信通过本节的学习你一定会对Hadoop的配置有新的认识。下面是具体步骤接介绍。
1、配置slaves,修改conf/slaves
data-dfs
复制hadoop-2.20.1目录以及所有文件到DataNode和Client
scp-rp/data/soft/hadoop-2.20.1192.168.1.12:/data/soft
scp-rp/data/soft/hadoop-2.20.1192.168.1.13:/data/soft
2、格式化Hdfs文件系统namenode,进入hadoop目录
[master@hadoop]$bin/hadoopnamenode-format输入Y,(注意区分大小写.这里一定要输入大写的Y,否刚不会成功format文件系统)
不出意外,应该会提示格式化成功。如果不成功,就去hadoop/logs/目录下去查看日志文件。
3、启动Hdfs分布式文件系统
Hadoop Hdfs配置时还要启动Hdfs分布式文件系统。进入hadoop目录,在bin/下面有很多启动脚本,可以根据自己的需要来启动。
*start-all.sh启动所有的Hadoop守护。包括namenode,datanode,jobtracker,tasktrack
*stop-all.sh停止所有的Hadoop
*start-mapred.sh启动Map/Reduce守护。包括Jobtracker和Tasktrack
*stop-mapred.sh停止Map/Reduce守护
*start-dfs.sh启动HadoopDFS守护.Namenode和Datanode
*stop-dfs.sh停止DFS守护
启动所有守护
[master@hadoop]bin/start-all.sh//会自动找到conf/slaves文件里的IP或者机器名,启动相应的slaves服务端
同样,如果要停止hadoop,则[master@hadoop]$bin/stop-all.sh
4、HDFS操作
再来看一下Hadoop Hdfs配置过程中对HDFS进行的操作。进入Hadoop目录,运行bin/目录的hadoop命令,可以查看Haoop所有支持的操作及其用法,这里以几个简单的操作为例。
建立目录
[master@hadoop]$bin/hadoopdfs-mkdirtestdir
在HDFS中建立一个名为testdir的目录