【hadoop】集群namenode和datanode群起失败,解决方法

背景

解决hadoop和hive的log4j-slf4j-impl-2.10.0.jar 包冲突的问题

用mv lib/log4j-slf4j-impl-2.10.0.jar lib/log4j-slf4j-impl-2.10.0.back

修改hive的包名,解决冲突。

决绝完冲突,初始化derby元数据库,

在hive的安装文件夹下执行bin/schematool -dbType derby -initSchema后

启动hive的时候,突然报错连接被拒绝。


 

检查进程突然发下datanode和namenode没有启动起来,

解决方法:

首先要检查报的错误是什么,在hadoop安装文件夹下的 logs

通常如果是 hadoop namenode -format 命令执行对此,

会导致clusterid冲突,无法启动,这是可以

删除集群上的hadoop安装文件夹下的 data 和logs文件

使用命令 rm -rf data/ logs/  同时删除

重新格式化,启动集群;如果解决不了,把根目录下的/temp的hadoop的临时文件删除。

 


 

 

 

除了以上问题,还有可能在配置环境变量的时候格式错误,

以上提升全局变量的配置方式请参考~

 

posted @ 2023-02-22 13:52  -YBP杨社长  阅读(226)  评论(0)    收藏  举报