hadoop2.7.2完全分布式环境搭建

服务器:

用户:hadoop
ip 机器名 系统
192.168.199.155 master-hadoop ubuntu desktop 15
192.168.199.157 slave1-hadoop ubuntu desktop 15
192.168.199.158 slave2-hadoop ubuntu desktop 15

 

java:

  • 版本:1.8.0_73

image

  • 路径:/usr/local/jdk

hadoop:

  • 版本:2.7.2
  • 路径:/usr/local/hadoop

 


开始部署

以下部署动作全部在master上执行,slave1和slave2通过虚拟机克隆的方式生成。

设置系统环境变量,编辑/etc/profile,末尾添加:

image

修改hosts,编辑/etc/hosts,末尾添加:

image

配置ssh免密登陆

[hadoop@master-hadoop ~]$ ssh-keygen -t rsa

[hadoop@slave1-hadoop ~]$ cd/home/hadoop/.ssh/

[hadoop@slave1-hadoop .ssh]$ cat id_rsa.pub >> authorized_keys

[hadoop@slave1-hadoop .ssh]$ chmod 600 authorized_keys

[hadoop@slave1-hadoop .ssh]$ chmod 700 ../.ssh

修改hadoop配置文件(core-site.xml和hdfs-site.xml文件中根据hadoop路径修改节点内容)

hadoop-env.sh

image

slaves

image

core-site.xml

image

hdfs-site.xml

image

yarn-site.xml

image

mapred-site.xml

image

 

克隆虚拟机,生成slave节点(vmware克隆后网卡mac要重新生成,然后在ubuntu网络设置里重新设置mac地址)

  1. 修改机器名,编辑/etc/hostname,文件内容改为slave1|slave2后重启系统。
  2. 在master上ssh连接slave1和slave2,测试免密码登陆是否成功,执行
    • ssh  slave1-hadoop
  3. 在master上启动hadoop,执行
    • start-all.sh

注意事项:

  1. hadoop用户必须有/usr/local/hadoop文件夹读写权限
  2. ssh登陆提示The authenticity of host can't be established,修改/etc/ssh/ssh_config文件的配置,最后面添加:

StrictHostKeyChecking no

UserKnownHostsFile /dev/null


测试

image

posted on 2016-02-12 15:10  一羽赐命  阅读(7598)  评论(0编辑  收藏  举报