上传文件:
- 启动集群
cd /$HADOOP_HOME
start-dfs.sh
start-yarn.sh
查看集群的运行状态
查看集群的目录结构
http://192.168.56.110:50070/explorer.html#/
2.从宿主机上传到本地机(master)【用xshell上传】
方法一:Usage:hadoop fs - copyFromLocal 本地文件 /本地文件的路径
Hadoop fs -copyFromLocal word.txt /user/root
方法二:Usage:hadoop fs -put /本地文件 /本地文件的路径/重命名的文件
Hadoop fs -put word.txt(本地文件) /user/root(本地文件的路径)/重命名的文件
方法三:Usage:hadoop fs - moveFromLocal /本地文件/本地文件的路径/重命名的文件
Hadoop fs -moveFromLocal word.txt /user/root
下载文件:
1.
方法一:Usage:hadoop fs - copyToLocal /本地文件的路径/本地文件 .
Hadoop fs -copyToLocal /user/root/ word.txt .(当前目录)
方法二:Usage:hadoop fs -get /本地文件的路径/本地文件 .
Hadoop fs -get /user/root(本地文件的路径)/ word.txt(本地文件) .
查看内容:
Hadoop fs -cat /user/root/word.txt /本地文件的路径/本地文件
Hadoop fs -tail pathname(查看的路径)
删除文件:
Hadoop fs -rm /user/root/word.txt /本地文件的路径/本地文件
原文地址:https://www.cnblogs.com/yyyyyy555/p/11750613.html
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。