- 先配置各台机器的网络环境,可以互相ping通,然后关闭hadoop
- 针对所有节点,配置主机名 /etc/hostname (区分大小写)
- 针对所有节点, 修改映射 IP /etc/hosts (不相关记录不做变更)
e.g. :
192.168.1.25 Master
192.168.1.26 Slave1
配置完成后,test for sure,如下
ping Master -c 3
ping SlaveX -c 3 - 配置无密码登录节点
- 配置Path变量,首先执行 vim ~/.bashrc
加入一行export PATH=$PATH:/usr/local/hadoop/bin:/usr/local/hadoop/sbin
- 配置五项基本文件
- 启动hadoop,在Master节点上进行
start-dfs.sh
start-yarn.sh
mr-jobhistory-daemon.sh start historyserver - 在Master节点上,通过 hdfs dfsadmin -report 查看DataNode是否正常启动
如果Live datanodes不为0,则说明集群启动成功