摘要: PySpark入门 Apache Spark是用于大规模数据处理的统一分析引擎;简单来说,Spark是一款分布式的计算框架,用于调度成百上千的服务器集群,计算TB、PB乃至EB级别的海量数据 PySpark是由Spark官方开发的Python第三方库 基础准备 下载包 cmd:pip install 阅读全文
posted @ 2023-03-07 17:02 Learn1ng 阅读(325) 评论(0) 推荐(0)