Spark:win10下Idea配置spark环境

Windows10环境配置

先在spark和hadoop官网上下载对应的版本(spark官网会推荐对应的hadoop版本)。

将下载下来的包解压到对应的文件夹,hadoop解压时需以管理员身份运行winRAR,否则会出错。

D:\Spark\spark-3.0.1-bin-hadoop2.7

D:\Hadoop\hadoop-2.7.7

在github上搜索winUtils,选择前两个库中的一个,下载对应版本的hadoop2.7.7/bin

用下载下来的bin替换原hadoop2.7.7/bin

配置环境变量

Path新建:

 

新建HADOOP_HOME 

 

在cmd里运行spark-shell

 

 成功!

 IDEA下环境配置

posted @ 2020-11-29 17:43  tqy724  阅读(200)  评论(0)    收藏  举报