hadoop六:搭建hadoop集群

 

搭建hadoop集群至少需要3台服务器。

克隆两台服务器:

1.克隆虚拟机

2.克隆后的配置修改:

  • 修改网卡信息 
    •  vim /etc/udev/rules.d/70**-net**
    •  修改name
  • 修改主机名:
    • 临时修改 hostname newname
    • 永久修改 vim /etc/sysconfig/network  ,修改其中的hostname
  • 修改ip信息
    • vim /etc/sysconfig/network-scripts/ifcfg-eth0, 修改其中的uuid,ipaddr,hwaddr
  • 修改映射
    • vim /etc/host   在其中添加192.168.216.112 hadoop2 www.hadoop02.com  
    • 将三台服务器的ip和dns都添加上

 

 

搭建hadoop集群:

local (standalone) mode

pseudo-distributed mode

fully-distributed mode

 

hadoop全分布式环境搭建:

  • 规划服务器与服务:HDFS文件系统、YARN"云操作系统"
  • 修改配置文件,设置服务运行机器节点
  • 分发hadoop目录至各个机器节点
  • 依据官方集群安装文档,分别启动各节点相应服务
  • 测试HDFS、YARN、MAPREDUCE、WEB UI监控集群
  • 集群基准测试
  • 配置主节点至从节点SSH 无密钥登录

 服务器规划:

主机名称  IP地址 功能

hadoop01(master) 192.168.10.11 NameNode、DataNode、ResourceManager、NodeManager

hadoop02(slave1) 192.168.10.12 DataNode、NodeManager

hadoop03(slave2) 192.168.10.13 DataNode、NodeManager

所有服务器都需要配置:

1. JDK     2. SSH免登录    3.Hadoop

 

 

 

 

 cd $HADOOP_HOME

vim ./etc/hadoop/hadoop-env.sh  配置java的位置,前面已配置

vim ./etc/hadoop/core-site.xml

 

 vim ./etc/hadoop/hdfs-site.xml

 

cp ./etc/hadoop/mapred-site.xml.template  ./etc/hadoop/mapred-site.xml

vim  ./etc/hadoop/mapred-site.xml

vim  ./etc/hadoop/yarn-site.xml

 

 vim  ./etc/hadoop/slaves 

 

 分发:

配置完毕,远程分发到别的服务器:

以上六个配置文件都是在hadoop01上做的,配置完成后,需要远程分发到其它的服务器上。
# 删除其它服务器上的hadoop
#切换到hadoop02
rm -rf /usr/local/hadoop-2.9.1
which hadoop  # 确认已删除hadoop
#切换到hadoop03
rm -rf /usr/local/hadoop-2.9.1


# 分发到其它服务器
# 切换到hadoop01
scp -r ../hadoop-2.9.1/  hadoop02:/usr/local/
# 如果出现找到hadoop02服务器的错误,需确认/etc/hosts配置文件中,是否配置了其它服务器的dns

 

 

启动集群之前,要先在namenode服务器上格式化,只需要一次即可

#在namenode服务器上格式化
hadoop namednode -format

 

启动集群方式有三种:

  • 全启动:start-all.sh
  • 模块启动:start-dfs.sh start-yarn.sh
  • 单个启动:
  • hadoop-daemon.sh start/stop namenode  ; 
  • hadoop-daemons.sh start/stop datanode
  • yarn-daemon.sh start/stop namenode
  • yarn-daemons.sh start/stop namenode
  • mr-jobhistory-daemon.sh start/stop

示例,模块启动--dfs:

#在hadoop01服务器上,使用模块启动的方式启动集群
./sbin/start-dfs.sh

 

集群启动后,测试相应的状态是否成功:

1.在所有服务器上,查看进程是否成功启动hadoop集群的所有服务器:jps

2.查看主服务器上,对应的模块的web ui监控是否正常: http://192.168.216.111:50070

3.上传文件测试

http://192.168.216.111:50070登录后,unity-->ubrowse directory

hdfs dfs -ls /

hdfs dfs -put ./上传的文件 /

查看刚上传的文件: hdfs dfs cat /上传的文件

示例,模块启动--yarn:

在主服务器上启动yarn:start-yarn.sh

 

查看集群状态web-ui监控:http://192.168.216.11:8088/cluster

测试yarn集群是否ok,跑一个mapreduce,统计某个文件中单词出现的次数:

yarn jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.1.jar  wordcount /刚才上传的文件 /output/00

验证上面的运行结果:

  在http://192.168.216.11:8088/cluster查看状态。

  hdfs dfs -ls /out  查看刚才输出结果的文件

 

posted on 2018-09-07 22:14  myworldworld  阅读(272)  评论(0)    收藏  举报

导航