学生课程分数的Spark SQL分析

读学生课程分数文件chapter4-data01.txt,创建DataFrame。

一、用DataFrame的操作完成以下数据分析要求

url = "file:///home/hadoop/chapter4-data01.txt"
rdd = spark.sparkContext.textFile(url).map(lambda line:line.split(','))
rdd.take(3)

from pyspark.sql.types import IntegerType,StringType,StructField,StructType
from pyspark.sql import Row
fields = [StructField('name',StringType(),True),StructField('course',StringType(),True),StructField('score',IntegerType(),True)]
schema = StructType(fields)
data = rdd.map(lambda p:Row(p[0],p[1],int(p[2])))
df_scs = spark.createDataFrame(data,schema)
df_scs.printSchema()

df_scs.show()

用DataFrame的操作或SQL语句完成以下数据分析要求,并和用RDD操作的实现进行对比:

  • 每个分数+5分。
df_scs.select('name','course',df_scs.score+5).show()

  • 总共有多少学生?
df_scs.select('name').distinct().count()

  • 总共开设了哪些课程?
df_scs.select('course').distinct().show()

  • 每个学生选修了多少门课?
df_scs.groupBy('name').count().show()

  • 每门课程有多少个学生选?
df_scs.groupBy('course').count().show()

  • 每门课程大于95分的学生人数?
df_scs.filter(df_scs.score>95).groupBy('course').count().show()

  • Tom选修了几门课?每门课多少分?
df_scs.filter(df_scs.name=='Tom').show()

  • Tom的成绩按分数大小排序。
df_scs.filter(df_scs.name=='Tom').orderBy(df_scs.score).show()

  • Tom的平均分。
df_scs.filter(df_scs.name=='Tom').agg({"score":"mean"}).show()

  • 求每门课的平均分,最高分,最低分
df_scs.groupBy('course').avg('score').show()
df_scs.groupBy('course').max('score').show()
df_scs.groupBy('course').min('score').show()

 

  • 求每门课的选修人数及平均分,精确到2位小数。
from pyspark.sql.functions import *
df_scs.select(countDistinct('name').alias('学生人数'),countDistinct('course').alias('课程数'),round(mean('score'),2).alias('所有课的平均分')).show()

  • 每门课的不及格人数,通过率
df_scs.filter(df_scs.score<60).groupBy('course').count().show()

  • 结果可视化。

二、用SQL语句完成以上数据分析要求 

  • 每个分数+5分。
spark.sql("SELECT name,course,score+5 FROM scs").show()

  • 总共有多少学生?
spark.sql("SELECT count(name) FROM scs").show()

  • 总共开设了哪些课程?
spark.sql("SELECT distinct(course) FROM scs").show()

  • 每个学生选修了多少门课?
spark.sql("SELECT name,count(course) FROM scs group by name").show()

  • 每门课程有多少个学生选?
spark.sql("SELECT count(name),course FROM scs group by course").show()

  • 每门课程大于95分的学生人数?
spark.sql("SELECT count(name),course FROM scs WHERE score>95 group by course").show()

  • Tom选修了几门课?
spark.sql("SELECT count(course) FROM scs WHERE name='Tom'").show()

  • 每门课多少分?
spark.sql("SELECT course,score FROM scs WHERE name='Tom'").show()

  • Tom的成绩按分数大小排序。
spark.sql("SELECT course,score FROM scs WHERE name='Tom' ORDER by score desc").show()

  • Tom的平均分。
spark.sql("SELECT avg(score) FROM scs WHERE name='Tom'").show()

  • 求每门课的平均分,最高分,最低分。
spark.sql("SELECT course,avg(score),max(score),min(score) FROM scs group by course").show()

  • 求每门课的选修人数及平均分,精确到2位小数。
spark.sql("SELECT course,count(course),round(avg(score),2) FROM scs group by course").show()

  • 每门课的不及格人数,通过率
spark.sql("SELECT course, count(name) as n, avg(score) as avg FROM scs group by course").createOrReplaceTempView("a")
spark.sql("SELECT course, count(score) as notPass FROM scs WHERE score<60 group by course").createOrReplaceTempView("b")
spark.sql("SELECT * FROM a left join b on a.course=b.course").show()
spark.sql("SELECT a.course, round(a.avg, 2), b.notPass, round((a.n-b.notPass)/a.n, 2) as passRat FROM a left join b on a.course=b.course").show()

 

posted @ 2021-05-20 20:28  嘛意思  阅读(87)  评论(2编辑  收藏  举报