hdfs的上传与下载相关命令与用法
上传文件:
- 启动集群
cd /$HADOOP_HOME
start-dfs.sh
start-yarn.sh
查看集群的运行状态
查看集群的目录结构
http://192.168.56.110:50070/explorer.html#/
2.从宿主机上传到本地机(master)【用xshell上传】
方法一:Usage:hadoop fs - copyFromLocal 本地文件 /本地文件的路径
Hadoop fs -copyFromLocal word.txt /user/root
方法二:Usage:hadoop fs -put /本地文件 /本地文件的路径/重命名的文件
Hadoop fs -put word.txt(本地文件) /user/root(本地文件的路径)/重命名的文件
方法三:Usage:hadoop fs - moveFromLocal /本地文件/本地文件的路径/重命名的文件
Hadoop fs -moveFromLocal word.txt /user/root
下载文件:
1.
方法一:Usage:hadoop fs - copyToLocal /本地文件的路径/本地文件 .
Hadoop fs -copyToLocal /user/root/ word.txt .(当前目录)
方法二:Usage:hadoop fs -get /本地文件的路径/本地文件 .
Hadoop fs -get /user/root(本地文件的路径)/ word.txt(本地文件) .
查看内容:
Hadoop fs -cat /user/root/word.txt /本地文件的路径/本地文件
Hadoop fs -tail pathname(查看的路径)
删除文件:
Hadoop fs -rm /user/root/word.txt /本地文件的路径/本地文件