摘要:
特注:windows下开发spark不需要在本地安装hadoop,但是需要winutils.exe、hadoop.dll等文件,前提是你已经安装了eclipse、maven、jdk等软件。spark支持jdk版本建议是1.8及以上,如果开发spark建议将jdk编译版本设置为1.8。 Spark 下 阅读全文
posted @ 2019-02-13 15:54
才华充电中
阅读(1492)
评论(0)
推荐(0)
摘要:
Java安装(jdk和jre) 下载 1、网址: https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html 2、选择Accept License Agreement 3、按照版本选择需要的 阅读全文
posted @ 2019-02-13 14:45
才华充电中
阅读(126)
评论(0)
推荐(0)

浙公网安备 33010602011771号