摘要: 一、安装并配置Spark 1.首先检查一下java和hadoop的环 2.下载spark 3.解压spark安装包,对文件夹重命名,复制配置文件 4.对配置文件进行修改 3.配置好环境变量之后,进行 source ~/.bashrc 5.配置好环境之后就可以启动spark了, 6.输入python代 阅读全文
posted @ 2022-03-08 00:25 一晚上两本寒假作业 阅读(42) 评论(0) 推荐(0)