摘要: 特注:windows下开发spark不需要在本地安装hadoop,但是需要winutils.exe、hadoop.dll等文件,前提是你已经安装了eclipse、maven、jdk等软件。spark支持jdk版本建议是1.8及以上,如果开发spark建议将jdk编译版本设置为1.8。 Spark 下 阅读全文
posted @ 2019-02-13 15:54 才华充电中 阅读(1492) 评论(0) 推荐(0)
摘要: Java安装(jdk和jre) 下载 1、网址: https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html 2、选择Accept License Agreement 3、按照版本选择需要的 阅读全文
posted @ 2019-02-13 14:45 才华充电中 阅读(126) 评论(0) 推荐(0)