摘要:
1. 环境准备: JDK1.8 hive 2.3.4 hadoop 2.7.3 hbase 1.3.3 scala 2.11.12 mysql5.7 2. 下载spark2.0.0 3. 配置系统环境变量 末尾添加 4. 配置spark-env.sh 末尾添加: 5. 配置spark-default 阅读全文
posted @ 2019-02-09 00:35
老董
阅读(2327)
评论(0)
推荐(0)
2019年2月9日 #
2019年2月8日 #
2019年2月6日 #
2019年2月2日 #
2019年1月29日 #
2019年1月28日 #
2019年1月25日 #