摘要: 1.安装Spark 检查基础环境hadoop,jdk 图1 hadoop,jdk环境 配置文件 vim /usr/local/spark/conf/spark-env.sh 图2 spark配置文件 环境变量 # 修改环境变量 vim ~/.bashrc # 加载修改后的设置,使之生效 source 阅读全文
posted @ 2022-03-03 15:55 *啥也不是* 阅读(85) 评论(0) 推荐(1) 编辑