INFO ipc.Client: Retrying connect to server: hadoop/192.168.73.100:9000. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)

INFO ipc.Client: Retrying connect to server: hadoop/192.168.73.100:9000. Already tried 1 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)

INFO ipc.Client: Retrying connect to server: hadoop/192.168.73.100:9000. Already tried 2 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)

 INFO ipc.Client: Retrying connect to server: hadoop/192.168.73.100:9000. Already tried 3 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)

、、、

所有的配置参数 检查了好几遍了 都没有问题。

/etc/hosts  也没有问题。

 

解决办法:

安装目录: /app/hadoop/

cd /app/hadoop/bin 下面执行

1.关闭所有的节点:

./stop-all.sh

2.namenode格

所有的配置参数 检查了好几遍了 都没有问题。

/etc/hosts  也没有问题。

 

解决办法:

(说明,如果没有设置环境变量的话,需要cd /app/hadoop/bin 下面执行(安装目录: /app/hadoop/))

1.关闭所有的节点:

./stop-all.sh

2.namenode格式化 

 hadoop namenode -format

注意: 判断是否re_format  filesystem 的时候  Y/N  一定要大写的 Y!!!

3.开启所有的节点:

./start-all.sh

式化 

 hadoop namenode -format

注意: 判断是否re_format  filesystem 的时候  Y/N  一定要大写的 Y!!!

3.开启所有的节点:

./start-all.sh

 

格式化之后基本上都是能够启动的 除非你的配置错了。