摘要: 一、安装Spark 1. 检查基础环境hadoop,jdk 图1 hadoop, jdk基础环境 2. 下载spark 3. 解压,文件夹重命名、权限 4. 配置文件 编辑该配置文件/usr/local/spark/conf/spark-env.sh,在文件中加上如下一行内容: export SPA 阅读全文
posted @ 2022-03-04 09:29 ztop 阅读(142) 评论(0) 推荐(0)