摘要: 由于spark是用scala编写的,且需要jdk的环境支撑,所以本地spark环境的搭建需要四个步骤:JDK的安装,scala的安装,hadoop的配置,spark的配置。 一、jdk的安装与环境变量的配置。(参考:http://blog.csdn.net/u011513853/article/de 阅读全文
posted @ 2017-06-12 13:43 开水白菜 阅读(590) 评论(0) 推荐(0)