摘要: Windows下搭建Spark+Hadoop开发环境需要一些工具支持。 只需要确保您的电脑已装好Java环境,那么就可以开始了。 一. 准备工作 1. 下载Hadoop2.7.1版本(写Spark和Hadoop主要是用到了Yarn,因此Hadoop必须安装) 下载地址:http://apache.f 阅读全文
posted @ 2017-01-05 16:50 蓝鲸王子 阅读(3518) 评论(1) 推荐(1) 编辑