hadoop执行stop-all.sh的时候总是出现 “no namenode to stop”
目前的解决的办法
1、先把服务都停掉
$ bin/stop-all.sh
2、格式化namenode
$ bin/hadoop namenode -format
3、重新启动所有服务
$ bin/start-dfs.sh
4、可以进行正常操作了
原因还不明白,学习中。。。
问题是出在我每次start-all 后,关机就直接关机了,没有先执行stop-all ,导致内存里的信息丢失,所以关机前记得执行一次stop-all.sh 就可以了
格式化之后数据都没了,所以最好正常操作,master主机不要出现负载运行的情况,不要强制关机,经常监控master主机,最好可以写一个脚本用于监控集群,定期重启一次以防止内存爆满,用于定期备份数据到本地
posted on 2016-03-19 13:36 1130136248 阅读(745) 评论(0) 收藏 举报
浙公网安备 33010602011771号