摘要:
PySpark入门 Apache Spark是用于大规模数据处理的统一分析引擎;简单来说,Spark是一款分布式的计算框架,用于调度成百上千的服务器集群,计算TB、PB乃至EB级别的海量数据 PySpark是由Spark官方开发的Python第三方库 基础准备 下载包 cmd:pip install 阅读全文
posted @ 2023-03-07 17:02
Learn1ng
阅读(325)
评论(0)
推荐(0)
浙公网安备 33010602011771号