学生课程分数的 Spark SQL 分析

学生课程分数的 Spark SQL 分析

读学生课程分数文件 chapter4-data01.txt,创建 DataFrame。

from pyspark.sql.types import *
from pyspark.sql import Row
# 下面生成“表头”
fields = [StructField('name',StringType(),True),StructField('course',StringType(),True),StructField('score',IntegerType(),True)]
schema = StructType(fields)
# 下面生成“表中的记录”
lines = spark.sparkContext.textFile("file:///usr/local/spark/mycode/rdd/chapter4-data01.txt")
parts = lines.map(lambda x: x.split(","))
data = parts.map(lambda p:Row(p[0],p[1],int(p[2])))
# 把“表头”和“表中的记录”拼接在一起
df = spark.createDataFrame(data,schema)
df.printSchema()

image

df.show()

image

一、用 DataFrame 的操作完成以下数据分析要求

  • 每个分数+5分。
df.select('name','course',df.score+5).show()

image

  • 总共有多少学生?
df.select('name').distinct().count()

image

  • 总共开设了哪些课程?
df.select('course').distinct().show()

image

  • 每个学生选修了多少门课?
df.groupBy('name').count().show()

image

  • 每门课程有多少个学生选?
df.groupBy('course').count().show()

image

  • 每门课程大于95分的学生人数?
df.filter(df.score>95).groupBy('course').count().show()

image

  • Tom选修了几门课?每门课多少分?
df.filter(df.name == 'Tom').show()

image

  • Tom的成绩按分数大小排序。
df.filter(df.name == 'Tom').orderBy(df.score).show()

image

  • Tom的平均分。
df.filter(df.name == 'Tom').agg({"score":"mean"}).show()

image

  • 求每门课的平均分,最高分,最低分。
# 求每门课的平均分
df.groupBy('course').avg('score').show()

image

# 求每门课的最高分
df.groupBy('course').max('score').show()

image

# 求每门课的最低分
df.groupBy('course').min('score').show()

image

  • 求每门课的选修人数及平均分,精确到2位小数。
from pyspark.sql.functions import *
df.select(countDistinct('name').alias('学生人数'),countDistinct('course').alias('课程数'),round(mean('score'),2).alias('所有课的平均分')).show()

image

  • 每门课的不及格人数,通过率
df.filter(df.score<60).groupBy('course').count().show()

image

二、用 SQL 语句完成以下数据分析要求

先把 DataFrame 注册为临时表:

df.createOrReplaceTempView("scs")

image

  • 每个分数+5分。
spark.sql("SELECT name,course,score+5 from scs").show()

image

  • 总共有多少学生?
spark.sql("SELECT COUNT( DISTINCT name) from scs").show()

image

  • 总共开设了哪些课程?
spark.sql("SELECT distinct(course) from scs").show()

image

  • 每个学生选修了多少门课?
spark.sql("SELECT name,count(course) from scs group by name").show()

image

  • 每门课程有多少个学生选?
spark.sql("SELECT count(name),course from scs group by course").show()

image

  • 每门课程大于95分的学生人数?
spark.sql("SELECT count(name),course from scs where score>95 group by course").show()

image

  • Tom选修了几门课?每门课多少分?
spark.sql("SELECT * FROM scs where name=='Tom'").show()

image

  • Tom的成绩按分数大小排序。
spark.sql("SELECT course,score from scs where name='Tom' order by score desc").show()

image

  • Tom的平均分。
spark.sql("SELECT avg(score) from scs where name='Tom'").show()

image

  • 求每门课的平均分,最高分,最低分。
spark.sql("SELECT course,avg(score),max(score),min(score) from scs group by course").show()

image

  • 求每门课的选修人数及平均分,精确到2位小数。
spark.sql("SELECT course,count(course),round(avg(score),2) from scs group by course").show()

image

  • 每门课的不及格人数,通过率
spark.sql("SELECT course,count(name) as n,avg(score) as avg FROM scs group by course").createOrReplaceTempView("a")
spark.sql("SELECT course,count(score) as notPass FROM scs where score<60 group by course").createOrReplaceTempView("b")
spark.sql("select a.course,round(a.avg,2),b.notPass,round((a.n-b.notPass)/a.n,2) as passRat from a left join b on a.course=b.course").show()

image

三、对比分别用RDD操作实现、用DataFrame操作实现和用SQL语句实现的异同。(比较两个以上问题)

总共有多少学生?

RDD 操作实现:

lines.map(lambda line: line.split(',')[0]).distinct().count()

image

DataFrame 操作实现:

df.select('name').distinct().count()

image

SQL 语句实现:

spark.sql("SELECT COUNT( DISTINCT name) from scs").show()

image

Tom的平均分?

RDD 操作实现:

from numpy import mean
tomList = lines.map(lambda line: line.split(',')).map(lambda line: (line[0], line[2])).lookup('Tom')
mean([int(x) for x in tomList])

image

DataFrame 操作实现:

df.filter(df.name == 'Tom').agg({"score": "mean"}).show()

image

SQL 语句实现:

spark.sql("SELECT avg(score) from scs where name='Tom'").show()

image

Tom选修了几门课?每门课多少分?

RDD 操作实现:

Tom = lines.filter(lambda line: 'Tom' in line).map(lambda line: line.split(','))
Tom.collect()

image

DataFrame 操作实现:

df.filter(df.name == 'Tom').show()

image

SQL 语句实现:

spark.sql("SELECT * FROM scs where name=='Tom'").show()

image

四、结果可视化。

posted @ 2021-05-20 04:07  1After909  阅读(521)  评论(0编辑  收藏  举报