05 2022 档案

摘要:from pyspark import SparkConf, SparkContext conf = SparkConf().setMaster("local").setAppName("My App") sc=SparkContext(conf=conf) url = "file:///home/ 阅读全文
posted @ 2022-05-27 21:21 coder-one 阅读(274) 评论(0) 推荐(0)
摘要:1 分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 Spark SQL是Spark用来处理结构化数据的一个模块,它提供了一个叫作Data Frame的编程抽象结构数据模型(即带有Schema信息的RDD),Spark SQL作为分布式SQL查询引擎,让用户可以通过SQL、Dat 阅读全文
posted @ 2022-05-07 08:57 coder-one 阅读(81) 评论(0) 推荐(0)