摘要: 一、安装Spark 检查基础环境hadoop,jdk 2.下载spark 3.配置文件 配置环境 vim /usr/local/spark/conf/spark-env.sh 修改环境变量 vim ~/.bashrc 生效 source ~/.bashrc 4.试运行Python代码 二、Pytho 阅读全文
posted @ 2022-03-07 14:55 Nizlu 阅读(27) 评论(0) 推荐(0)