大数据学习——hdfs集群启动

第一种方式:

1 格式化namecode(是对namecode进行格式化)

hdfs namenode -format(或者是hadoop namenode -format)

进入 cd /root/apps/hadoop/tmp/dfs/name/current

启动namecode    hadoop-daemon.sh start namenode

启动datanode     hadoop-daemon.sh start datanode

其他两台机器也执行下  hadoop-daemon.sh start datanode

mini1启动sn:

hadoop-daemon.sh start secondarynamenode

 

第二种方式:

先启动hdfs

sbin/start-dfs.sh

再启动yarn

sbin/start-yarn.sh

 

验证是否启动成功

1 jps查看进程

2 http://192.168.74.100:50070 查看

3 上传一个文件测试一下

hdfs dfs -put seen_txid /

打开 http://192.168.74.100:50070 utilities——Brows the file system 可以查看到上传的文件

 

Browse Directory

 

 

 

 

 

 

 

 

 集群关闭

1 手动关闭

2 一键关闭

cd /root/apps/hadoop/sbin/

stop-dfs.sh

 

配置 slaves

vi salves

写入

mini1

mini2

mini3

保存退出

mv ./slaves /root/apps/hadoop/etc/hadoop/ 

 拷贝到另外两台机器

scp -r /root/apps/hadoop/etc/hadoop/slaves root@mini2:/root/apps/hadoop/etc/hadoop/

 scp -r /root/apps/hadoop/etc/hadoop/slaves root@mini3:/root/apps/hadoop/etc/hadoop/

 

一键启动集群

start-dfs.sh 

一键关闭集群

stop-dfs.sh

posted on 2018-12-24 13:53  o_0的园子  阅读(708)  评论(0编辑  收藏  举报