2022年3月5日
摘要: 一、安装Spark 1.检查基础环境hadoop,jdk 图一 Hadoop版本信息 图二 Hadoop主节点master节点jps 图三 Hadoop节点slave1 jps 图四 Java版本 2.下载spark 3.解压,文件夹重命名、权限 4.配置文件 5.环境变量 6.试运行Python代 阅读全文
posted @ 2022-03-05 13:08 TanHaven 阅读(36) 评论(0) 推荐(0)