1. 先配置各台机器的网络环境,可以互相ping通,然后关闭hadoop
  2. 针对所有节点,配置主机名 /etc/hostname (区分大小写)
  3. 针对所有节点, 修改映射 IP /etc/hosts  (不相关记录不做变更)
         e.g. :
              192.168.1.25  Master
              192.168.1.26  Slave1
         配置完成后,test for sure,如下
              ping Master -c 3
              ping SlaveX -c 3
  4. 配置无密码登录节点
  5. 配置Path变量,首先执行 vim ~/.bashrc
    加入一行
    export PATH=$PATH:/usr/local/hadoop/bin:/usr/local/hadoop/sbin
  6. 配置五项基本文件
  7. 启动hadoop,在Master节点上进行
    start-dfs.sh
    start-yarn.sh
    mr-jobhistory-daemon.sh start historyserver
  8. 在Master节点上,通过 hdfs dfsadmin -report 查看DataNode是否正常启动
              如果Live datanodes不为0,则说明集群启动成功
 
 
posted on 2018-01-03 14:26  so-cold-to-eat-ice  阅读(169)  评论(0)    收藏  举报