会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
dy9776
博客园
首页
新随笔
联系
订阅
管理
2017年4月27日
Python pycharm(windows版本)部署spark环境
摘要: 一 部署本地spark环境 1.1 安装好JDK 下载并安装好jdk1.7,配置完环境变量。 1.2 Spark环境变量配置 去http://spark.apache.org/downloads.html网站下载相应hadoop对应的版本,我下载的是spark-1.6.0-bin-hadoop2.6
阅读全文
posted @ 2017-04-27 19:41 dy9776
阅读(9020)
评论(0)
推荐(0)
公告