hadoop执行stop-all.sh的时候总是出现 “no namenode to stop”

目前的解决的办法

 

1、先把服务都停掉 

$ bin/stop-all.sh


2、格式化namenode 

 

$ bin/hadoop namenode -format

 

3、重新启动所有服务 

$ bin/start-dfs.sh 


4、可以进行正常操作了 

 

原因还不明白,学习中。。。

 

问题是出在我每次start-all 后,关机就直接关机了,没有先执行stop-all ,导致内存里的信息丢失,所以关机前记得执行一次stop-all.sh 就可以了

 

 

格式化之后数据都没了,所以最好正常操作,master主机不要出现负载运行的情况,不要强制关机,经常监控master主机,最好可以写一个脚本用于监控集群,定期重启一次以防止内存爆满,用于定期备份数据到本地

posted on 2016-03-19 13:36  1130136248  阅读(745)  评论(0)    收藏  举报

导航