hadoop2.7.2完全分布式环境搭建
服务器:
用户:hadoopip | 机器名 | 系统 |
192.168.199.155 | master-hadoop | ubuntu desktop 15 |
192.168.199.157 | slave1-hadoop | ubuntu desktop 15 |
192.168.199.158 | slave2-hadoop | ubuntu desktop 15 |
java:
- 版本:1.8.0_73
- 路径:/usr/local/jdk
hadoop:
- 版本:2.7.2
- 路径:/usr/local/hadoop
开始部署
以下部署动作全部在master上执行,slave1和slave2通过虚拟机克隆的方式生成。
设置系统环境变量,编辑/etc/profile,末尾添加:
修改hosts,编辑/etc/hosts,末尾添加:
配置ssh免密登陆
[hadoop@master-hadoop ~]$
ssh
-keygen -t rsa
[hadoop@slave1-hadoop ~]$
cd
/home/hadoop/
.
ssh
/
[hadoop@slave1-hadoop .
ssh
]$
cat
id_rsa.pub >> authorized_keys
[hadoop@slave1-hadoop .
ssh
]$
chmod
600 authorized_keys
[hadoop@slave1-hadoop .
ssh
]$
chmod
700 ../.
ssh
/
修改hadoop配置文件(core-site.xml和hdfs-site.xml文件中根据hadoop路径修改节点内容)
hadoop-env.sh
slaves
core-site.xml
hdfs-site.xml
yarn-site.xml
mapred-site.xml
克隆虚拟机,生成slave节点(vmware克隆后网卡mac要重新生成,然后在ubuntu网络设置里重新设置mac地址)
- 修改机器名,编辑/etc/hostname,文件内容改为slave1|slave2后重启系统。
- 在master上ssh连接slave1和slave2,测试免密码登陆是否成功,执行
- ssh slave1-hadoop
- 在master上启动hadoop,执行
- start-all.sh
注意事项:
- hadoop用户必须有/usr/local/hadoop文件夹读写权限
- ssh登陆提示The authenticity of host can't be established,修改/etc/ssh/ssh_config文件的配置,最后面添加:
StrictHostKeyChecking no
UserKnownHostsFile /dev/null