摘要: 1、检查基础环境hadoop,jdk 启动hdfs查看进程 2、下载spark(省略,原来已下好Spark) 3、解压,文件夹重命名、权限(省略,原来已下好Spark) 4、配置文件 配置Spark的classPath,并加上最后一行代码 5、环境变量 6、试运行Python代码 二、Python编 阅读全文
posted @ 2022-03-02 22:47 泽浩111 阅读(34) 评论(0) 推荐(0) 编辑