hadoopd的sbin目录的脚本
一、服务相关的一些脚本
开启一个软件: 1、hadoop-daemon.sh start namenode 2、hadoop-daemon.sh start datanode 3、hadoop-daemon.sh start secondarynamenode (hadoop-daemon.sh stop 关闭一个软件) 4、yarn-daemon.sh start resourcemanager 5、yarn-daemon.sh start nodemanager start-dfs.sh 一次性打开三个软件1、2、3 HDFS开启服务 stop-dfs.sh 一次性关闭三个软件1、2、3 start-yarn.sh 一次性打开两个软件4、5 MapReduce使用 stop-yarn.sh 一次性关闭两个软件4、5 start-all.sh 一次性打开5个软件1、2、3、4、5 stop-all.sh 一次性关闭5个软件1、2、3、4、5
二、hadoop完全分布式的搭建
目前先准备两台电脑(参照:https://www.cnblogs.com/yangy1/p/12336987.html,另一台先克隆,再修改相关配置)
修改主机名:
vim /etc/hostname
主:hdp01
克隆:hdp02
修改主机映射(两台的主机名及ip)
vim /etc/hosts hdp01 192.168.0.32 hdp02 192.168.0.42
配置免密
ssh-keygen
ssh-copy-id 主机名
ssh 主机名(测试是否免密成功)
删除tmp下的目录文件(克隆的主机也要删除)
rm -rf * //删除tmp目录下的文件
配置hdfs-site.xml(克隆的也需要配置)
vim /opt/software/hadoop-2.7.7/etc/hadoop/hdfs-site.xml <configuration> <property> <name>dfs.replication</name> <value>3</value> </property> </configuration>
配置slaves
vim /opt/software/hadoop-2.7.7/etc/hadoop/slaves hdp01 hdp02
格式化hadoop
hadoop namenode -format
启动namenode以及datanode节点(目前只需要用到hdfs服务)
start-dfs.sh
访问50070端口
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。