05 2022 档案

摘要:综合练习:学生课程分数 网盘下载sc.txt文件,创建RDD,并转换得到DataFrame。 >>> lines = spark.sparkContext.textFile('file:///home/hadoop/wc/sc.txt') >>> parts = lines.map(lambda x 阅读全文
posted @ 2022-05-27 14:27 050张自强 阅读(53) 评论(0) 推荐(0)
摘要:7.Spark SQL 1.分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 为了将SQL语句转为Spark应用程序,简化编程,Spark团队开发了Shark(Hive on Spark)。但由于Shark完全按照Hive设计,难以添加新的优化;并且,Spark线程级别并行,Ma 阅读全文
posted @ 2022-05-11 22:02 050张自强 阅读(19) 评论(0) 推荐(0)

返回顶端