11 8
首先切换到hadoop用户
| su - hadoop |
启动hdfs集群
| start-dfs.sh |
启动yarn集群
| start-yarn.sh |
启动hive
首先切换到hive文件夹
| cd /export/server/hive |
然后再运行下述命令
| #先启动metastore服务 然后启动hiveserver2服务 | |
| nohup bin/hive --service metastore >> logs/metastore.log 2>&1 & | |
| nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 & |
启动Spark
切换到spark目录下
| cd /export/server/spark |
运行下列命令
| sbin/start-all.sh |
启动完成后输入jps命令检验一下是否启动成功
Zookeeper启动
在node1、node2、node3上分别执行,启动Zookeeper
| /export/server/zookeeper/bin/zkServer.sh start |
浙公网安备 33010602011771号