摘要: 一、安装Spark 1. 检查基础环境hadoop,jdk 2.下载spark(已有spark,略过) 3.解压,文件夹重命名、权限(略过) 4.配置文件 5.配置环境 在gedit ~/.bashrc加入代码 export SPARK_HOME=/usr/local/spark export PY 阅读全文
posted @ 2022-03-03 22:31 清澈的眼神 阅读(38) 评论(0) 推荐(0) 编辑