spark链接hive并查询数据
摘要:
首先启动 hadoop,mysql,hive 服务 {hadoop}/sbin/start-all.sh service mysqld start hive --service metastore& hive --service hiveserver2 & 最后启动spark 我是以python方式 阅读全文
posted @ 2017-09-26 09:48 潺潺水声 阅读(789) 评论(0) 推荐(0)