Hadoop集群节点启动异常处理

 

㈠、我们首先来看报错信息(文件路径因人而异,务必注意)

1、进入创建的软连接下的Hadoop中查找日志

①cd 桌面/bigdata/links/hadoop/

②ls

截图如下:

③cd logs

④ls

根据自己所挂掉的节点去选择所要查找的日志(以NameNode为例)

⑤more hadoop-briup-namenode-mynn.log

截图如下:

查找到的信息会很多,报错信息在偏下的位置,要耐心的看完哦(回车用来查看信息,若要跳出可使用Ctrl+c),由于内容偏多,此处着重来看报错信息,报错信息有以下俩种报错。

报错一:

报错二:

 

㈡、解决问题

1、我们使用格式化的方法来解决报错一

①首先我们将可以启动的几个集群关闭

kill -9 3571(集群编号)

hadoop-daemon.sh stop datanode

②然后删除所有日志信息

⑴cd 桌面/bigdata/links/hadoop/logs
⑵rm *
⑶ls
⑷cd

③然后进入根目录下删除datanodeData下的数据

⑴cd .bigdata/hadoop/data
⑵ls
⑶cd datanodeData
⑷ls
⑸rm -r *
⑹ls
⑺cd

④重新初始化hdfs文件系统

hdfs namenode -format
注:一定要出现输入Y才算是正常了.不然一直初始化

⑤启动集群(启动方式不一样的以自己的为准)

hadoop-daemon.sh start namenode
hadoop-daemon.sh start datanode
yarn-daemon.sh start nodemanager
yarn-daemon.sh start resourcemanager

到这里,集群节点应该是可以启动的,下面俩张图操作过程,可结合图片去操作

 

2、报错二解决方法

①查看俩个地方的ip地址是否一致

ifconfig 查询结果如下:

vi /etc/hosts

⑶若不一致,以第一张图中的ip地址为主

②改完ip地址后,重复解决报错一的操作

 

 

 

 

 

 

 

 

 

 

 

 

 

 

posted @ 2022-04-22 22:37  码..农007  阅读(232)  评论(0)    收藏  举报