spark链接hive并查询数据
摘要:首先启动 hadoop,mysql,hive 服务 {hadoop}/sbin/start-all.sh service mysqld start hive --service metastore& hive --service hiveserver2 & 最后启动spark 我是以python方式
阅读全文
posted @ 2017-09-26 09:48
posted @ 2017-09-26 09:48
posted @ 2017-09-23 19:33
posted @ 2017-09-23 19:18