11 8

首先切换到hadoop用户

  su - hadoop

启动hdfs集群

  start-dfs.sh

启动yarn集群

  start-yarn.sh

启动hive

首先切换到hive文件夹

  cd /export/server/hive

然后再运行下述命令

  #先启动metastore服务 然后启动hiveserver2服务
  nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
  nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &

启动Spark

切换到spark目录下

  cd /export/server/spark

运行下列命令

  sbin/start-all.sh

启动完成后输入jps命令检验一下是否启动成功

Zookeeper启动

在node1、node2、node3上分别执行,启动Zookeeper

  /export/server/zookeeper/bin/zkServer.sh start
posted @ 2023-11-08 20:09  你好,幸会  阅读(79)  评论(0)    收藏  举报