摘要: 一、安装Spark 1.检查基础环境hadoop和jdk。 2.以前下载过spark,所以第二、三步直接跳过。 3.接下来配置文件。 4.环境变量 使用vim ~/.bashrc进行配置,然后使用source ~/.bashrc生效。 5.试运行Python代码。 (1)执行以下命令启动pyspar 阅读全文
posted @ 2022-03-06 18:04 灵精仔 阅读(49) 评论(0) 推荐(0)