摘要:
一、安装并配置Spark 1.首先检查一下java和hadoop的环 2.下载spark 3.解压spark安装包,对文件夹重命名,复制配置文件 4.对配置文件进行修改 3.配置好环境变量之后,进行 source ~/.bashrc 5.配置好环境之后就可以启动spark了, 6.输入python代 阅读全文
posted @ 2022-03-08 00:25
一晚上两本寒假作业
阅读(42)
评论(0)
推荐(0)
浙公网安备 33010602011771号