CentOS7.2下Hadoop2.7.2的集群搭建 v1.3

1.基本环境:

操作系统:

Centos 7.2.1511

三台虚机:

192.168.163.224 master

192.168.163.225 node1

192.168.163.226 node2

软件包

hadoop-2.7.2.tar.gz

jdk-7u79-linux-x64.tar.gz


2.配置系统环境

配置ntp时间同步

参考http://www.jb51.cc/article/p-twrnnirs-bch.html


修改hostname

192.168.163.224主机:

echo"master">/etc/hostname

192.168.163.225主机:

echo"node1">/etc/hostname

192.168.163.226主机:

echo"node2">/etc/hostname

master上修改hosts文件

echo"192.168.163.224master">>/etc/hosts
echo"192.168.163.225node1">>/etc/hosts
echo"192.168.163.225node2">>/etc/hosts

同步到node1,node2上的主机

scp/etc/hostsnode1:/etc/
scp/etc/hostsnode2:/etc/

各台主机上相互ping,测试是否可以通过host连通

pingmaster
pingnode1
pingnode2

master,node1,node2上关闭防火墙

systemctlstopfirewalld
systemctldisablefirewalld

3.配置hadoop环境

master,node1,node2上安装jdk

rpm-qa|grepopenjdk#检查openjdk,存在则删除
yumremove*-openjdk-*####删除openjdk#####

安装sunjdk

###yum install glibc.i686 64位系统安装32位包,需要安装

 tar-zxvfjdk-7u79-linux-x64.tar.gz
mv./jdk1.7.0_79/usr/

master,node1,node2上创建hadoop用户

useradd hadoop #增加hadoop用户,用户组、home目录、终端使用默认

passwd hadoop #修改密码

建议在学习阶段将hadoop用户加入sudo权限管理,简单方法如下

1.执行visudo命令

2.在root ALL=(ALL) ALL 后加入

hadoop ALL=(ALL) ALL

master,node1,node2上进入hadoop用户:

su - hadoop


master,node1,node2上无密钥连接:

master上的hadoop用户通过rsa算法生成非对称密钥对:

ssh-keygen-trsa
cd/home/hadoop/.ssh/
cpid_rsa.pubauthorized_keys
chmodgo-wxauthorized_keys

master上的公钥authorized_keys拷贝到node1,node2上的hadoop用户

scpauthorized_keysnode1:/home/hadoop/.ssh/
scpauthorized_keysnode2:/home/hadoop/.ssh/

可通过如下命令测试

ssh node1

ssh node2

为方便node1,node2中hadoop用户可以同时登录master,这里我们集群中的所有用户共用一个密钥(仅仅为了方便,实际环境一定不要这样用)

scp~/.ssh/id_rsanode1:/home/hadoop/.ssh/
scp~/.ssh/id_rsanode2:/home/hadoop/.ssh/

master,node1,node2上修改环境变量

vi/etc/profile
JAVA_HOME=/usr/jdk1.7.0_79
HADOOP_HOME=/usr/local/hadoop
exportPATH=$JAVA_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:$PATH
su-hadoop#重新读取环境变量

master,node1,node2上创建相关目录

sudomkdir-p/usr/local/hadoop
sudochown-Rhadoop:hadoop/usr/local/hadoop
sudomkdir-p/data/hadoop/#创建hadoop数据目录结构
sudochown-Rhadoop:hadoop/data/hadoop/
mkdir-p/data/hadoop/tmp/#创建tmp
mkdir-p/data/hadoop/hdfs/#创建hdfs
mkdir-p/data/hadoop/hdfs/data#创建datanode目录
mkdir-p/data/hadoop/hdfs/name#创建namenode目录
mkdir-p/data/hadoop/hdfs/namesecondary

安装hadoop

wgethttp://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.7.2/hadoop-2.7.2.tar.gz
tar-zxvfhadoop-2.7.2.tar.gz
mvhadoop-2.7.2/usr/local/hadoop
chown-Rhadoop:hadoop/usr/local/hadoop/

/usr/local/hadoop目录结构分析:

bin:存放基本的管理脚本和使用脚本

etc:所有配置文件的存放文件

include:对外提供的c++编程库头文件

lib :对外提供的c++编程库动态库和静态库

libexec:各个服务对应的shell配置文件所在目录

logs:存放日志文件

sbin:存放管理脚本,主要包含HDFS及YARN中各类服务的启动与停止脚本

share:各个模块编译后的jar包所在目录

4.修改配置文件

配置文件相关变量详细解释可查看官网:

http://hadoop.apache.org/docs/r2.7.2/hadoop-project-dist/

cd$HADOOP_HOME/etc/hadoop

4.1 vi hadoop-env.sh

exportHADOOP_HEAPSIZE=128#默认为1000M,这里我们修改为128M

4.2 vi core-site.xml #全局配置

<configuration>

<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
<!--namenode服务器地址和端口,以域名(或ip)形式-->
</property>

<property>
<name>dfs.namenode.checkpoint.period</name>
<value>1800</value>
<!--edits每隔30分钟触发一次合并,默认为60分钟-->
</property>

</property>
<property>
<name>fs.checkpoint.size</name>
<value>67108864</value>
<!--edits达到一定值就触发一次合并-->
</property>

<property>
<name>fs.trash.interval</name>
<value>1440</value>
<!--文件回收站,自动回收时间,单位分钟,这里设置是1天,默认为0。-->
</property>

<property>
<name>hadoop.tmp.dir</name>
<value>/data/hadoop/tmp</value>
<!--默认临时路径,这个最好配置,如果在新增节点或者其他情况下莫名其妙的DataNode启动不了,就删除此文件中的tmp目录即可。不过如果删除了NameNode机器的此目录,那么就需要重新执行NameNode格式化的命令。/data/hadoop/tmp这里给的路径不需要创建会自动生成.-->
</property>

<property>
<name>io.file.buffer.size</name>
<value>131702</value>
<!--流文件的缓冲区-->
</property>

</configuration>

4.3 vi hdfs-site.xml #hdfs中NameNode,DataNode局部配置

<configuration>

<property>
<name>dfs.namenode.name.dir</name>
<value>/data/hadoop/hdfs/name</value>
<!--namenode数据镜象目录-->
</property>

<property>
<name>dfs.datanode.data.dir</name>
<value>/data/hadoop/hdfs/data</value>
<!--datanode数据镜象存储路径,可以配置多个不同的分区和磁盘中,使用,号分隔-->
</property>

<property>
<name>dfs.namenode.http-address</name>
<value>master:50070</value>
<!---HDFSWeb查看主机和端口-->
</property>

<property>
<name>dfs.namenode.secondary.http-address</name>
<value>node1:50090</value>
<!--辅控HDFSweb查看主机和端口-->
</property>

<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>

<property>
<name>dfs.replication</name>
<value>3</value>
<!--HDFS数据保存份数,通常是3-->
</property>

<property>
<name>dfs.datanode.du.reserved</name>
<value>1073741824</value>
<!--datanode写磁盘会预留1G空间给其他程序使用,而非写满-->
</property>

<property>
<name>dfs.block.size</name>
<value>134217728</value>
<!--HDFS数据块大小,默认为128M-->
</property>

<property>
<name>dfs.permissions.enabled</name>
<value>false</value>
<!--HDFS关闭文件权限-->
</property>

</configuration>

4.4 vi etc/hadoop/mapred-site.xml.template #配置MapReduce,使用yarn框架、jobhistory使用地址以及web地址

<configuration>

<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

<property>
<name>mapreduce.jobtracker.http.address</name>
<value>master:50030</value>
</property>

<property>
<name>mapred.job.tracker</name>
<value>http://master:9001</value>
</property>

<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>

<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
</property>

</configuration>

cpetc/hadoop/mapred-site.xml.templateetc/hadoop/mapred-site.xml

4.5 vi etc/hadoop/yarn-site.xml 配置yarn-site.xml文件

<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

<property>
<name>yarn.resourcemanager.address</name>
<value>master:8032</value>
</property>

<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>

<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8031</value>
</property>

<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:8033</value>
</property>

<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:8088</value>
</property>
</configuration>

4.6 vi hadoop-env.sh及vi yarn-env.sh

将其中的${JAVA_HOME}用/usr/jdk1.7.0_79代替


5.检查单机版Hadoop


测试hdfs中的namenode与datanode:

hadoop-daemon.shstartnamenode
chmodgo-w/data/hadoop/hdfs/data/
hadoop-daemon.shstartdatanode

测试resourcemanager:

yarn-daemon.shstartresourcemanager

测试nodemanager:

yarn-daemon.shstartnodemanager

测试historyserver:

mr-jobhistory-daemon.shstarthistoryserver


执行jps

99297Jps
99244DataNode
98956JobHistoryServer
98820NodeManager
98118NameNode
98555ResourceManager

上述表明单机版hadoop安装成功


6.集群搭建

scp-r$HADOOP_HOME/node1:/usr/local/
scp-r$HADOOP_HOME/node2:/usr/local/

在master上进行配置

vi $HADOOP_HOME/etc/hadoop/slaves #这里指定里副本数为2,这里指定node1,node2

删除localhost

添加

master

node1

node2

vi $HADOOP_HOME/etc/hadoop/masters

删除localhost

添加

node1 #目的是为了在node1节点上存放secondnamenode

2.xx版本不再有master这个文件了,在hdfs-site.xml这个配置文件中的dfs.namenode.secondary.http-address项中已经指定node1为secondarynamenode



7.测试集群是否搭建成功

$HADOOP_HOME/bin/hdfs namenode -format

master上

开启所有节点:start-all.sh(或start-dfs及start-yarn.sh代替)

各节点执行jps

master:
98956JobHistoryServer
98820NodeManager
118806Jps
118176NameNode
118540ResourceManager
node1:
106408SecondaryNameNode
106602Jps
106301DataNode
106496NodeManager
node2:
105932Jps
105812NodeManager
105700DataNode


存在上述状态,说明集群搭建成功

关闭所有节点:stop-all.sh(或stop-dfs.sh及stop-yarn.sh代替)


同时可以访问网页进行查看:

http://master:50070/

spacer.gif

wKiom1eXXmWgJW-FAAFJt2emfKc479.jpg-wh_50

http://master:8088/

wKiom1eXXnaxGN8fAAGAadc-56c700.jpg-wh_50

spacer.gif

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


linux下开机自启: 在/etc/init.d目录下新建文件elasticsearch 并敲入shell脚本: 注意, 前两行必须填写,且要注释掉。 第一行为shell前行代码,目的告诉系统使用shell。 第二行分别代表运行级别、启动优先权、关闭优先权,且后面添加开机服务会用到。 shell脚本
1、因为在centos7中/etc/rc.d/rc.local的权限被降低了,所以需要赋予其可执行权 chmod +x /etc/rc.d/rc.local 2、赋予脚本可执行权限假设/usr/local/script/autostart.sh是你的脚本路径,给予执行权限 chmod +x /usr
最简单的查看方法可以使用ls -ll、ls-lh命令进行查看,当使用ls -ll,会显示成字节大小,而ls- lh会以KB、MB等为单位进行显示,这样比较直观一些。 通过命令du -h –max-depth=1 *,可以查看当前目录下各文件、文件夹的大小,这个比较实用。 查询当前目录总大小可以使用d
ASP.NET Core应用程序发布linux在shell中运行是正常的。可一但shell关闭网站也就关闭了,所以要配置守护进程, 用的是Supervisor,本文主要记录配置的过程和过程遇到的问题 安装Supervisor&#160;1 yum install python-setuptools
设置时区(CentOS 7) 先执行命令timedatectl status|grep &#39;Time zone&#39;查看当前时区,如果不是时区(Asia/Shanghai),则需要先设置为中国时区,否则时区不同会存在时差。 #已经是Asia/Shanghai,则无需设置 [root@xia
vim&#160;/etc/sysconfig/network-scripts/ifcfg-eth0 BOOTPROTO=&quot;static&quot; ONBOOT=yes IPADDR=192.168.8.106 NETMASK=255.255.252.0 GATEWAY=192.168.
一、安装gcc依赖 由于 redis 是用 C 语言开发,安装之前必先确认是否安装 gcc 环境(gcc -v),如果没有安装,执行以下命令进行安装 [root@localhost local]# yum install -y gcc 二、下载并解压安装包 [root@localhost local
第一步 On CentOS/RHEL 6.*: $ sudo rpm -Uvh http://li.nux.ro/download/nux/dextop/el6/x86_64/nux-dextop-release-0-2.el6.nux.noarch.rpm On CentOS/RHEL 7: $
/// &lt;summary&gt; /// 取小写文件名后缀 /// &lt;/summary&gt; /// &lt;param name=&quot;name&quot;&gt;文件名&lt;/param&gt; /// &lt;returns&gt;返回小写后缀,不带“.”&lt;/ret
which nohup .bash_profile中并source加载 如果没有就安装吧 yum provides */nohup nohup npm run start &amp; nohup ./kibana &amp;
1.1 MySQL安装 1.1.1 下载wget命令 yum -y install wget 1.1.2 在线下载mysql安装包 wget https://dev.mysql.com/get/mysql57-community-release-el7-8.noarch.rpm 1.1.3 安装My
重启 reboot shutdown -r now init 6 关闭 init 0 shutdown -h now shutdown -h 20:25 #8点25关机查看内存 free CPU利用率 top 日期 date 设置时间 date 033017002015 #月日时间年 日历 cal
1、firewalld的基本使用 启动: systemctl start firewalld 关闭: systemctl stop firewalld 查看状态: systemctl status firewalld 开机禁用 : systemctl disable firewalld 开机启用 :
1 下载并安装MySQL官方的&#160;Yum Repository wget -i -c http://dev.mysql.com/get/mysql57-community-release-el7-10.noarch.rpm 使用上面的命令就直接下载了安装用的Yum Repository,大概
CentOS6.x CentOS6中转用Upstrat代替以前的init.d/rcX.d的线性启动方式。 一、相关命令 通过initctl help可以查看相关命令 [root@localhost ~]# initctl help Job commands: start Start job. sto
1、使用命令:df -lk 找到已满磁盘 2、使用命令:du --max-depth=1 -h 查找大文件,删除
ifconfig:查看网卡信息 网卡配置文件位置: /etc/sysconfig/network-scripts/文件夹 nmtui:配置网卡 netstat -tlunp:查看端口信息 端口信息存储位置: /etc/services文件 route:查看路由信息 wget:下载网路文件,例如 wg
ps -ef:查看所有进程,&#160;ps -ef |grap firewalld 查看与firewalld相关的进程 which :查看进程:which firewalld kill 进程id:杀掉进程 kill 640,强制杀:kill -9 640 man:查看帮助,例如 man ps 查看
useradd:添加用户 useradd abc,默认添加一个abc组 vipw:查看系统中用户 groupadd:添加组groupadd ccna vigr:查看系统中的组 gpasswd:将用户abc添加到ccna组 gpasswd -a abc ccna groups abc:查看用户abc属